Anita Graser 🇪🇺🇺🇦🇬🇪

#torchGeo Release v0.7.0

osgeo.org/community-news/torch

torchGeo is a #PyTorch domain library designed to make it simple for #machineLearning experts to work with #EO data, providing datasets, samplers, transforms, and pre-trained models specific to #geospatial data.

#GISChat #GeoAI

Arthur Amalvy

While I believe the support is not yet official, seems like I can train a model with the RX 9070XT using #rocm 6.3 and #pytorch nightly. It was surprisingly not that difficult to setup. #AMD

fsolt

Torch Lens Maker

https://victorpoughon.github.io/torchlensmaker – Librería en Python para el diseño de elementos ópticos utilizando modelos de optimización con PyTorch

Torch Lens Maker

Differentiable geometric optics in PyTorch

victorpoughon.github.io
Kyle Taylor

Making the rounds. Worth a reshare on the fedi

... This post is a long form essay version of a talk about PyTorch internals given at the PyTorch NYC meetup on May 14, 2019....

[1] blog.ezyang.com/2019/05/pytorc

#pytorch #machinelearning

nearshorecyber

AI/ML Engineers - Check out this job in Mexico City!

👉 Sr. ML Engineer (Prioritization Engine) - Hybrid with salary of CDMX $140,000 to 150,000 MEX pesos per month
careers-page.com/nearshore-cyb

#Sagemaker #ClearML #DeepLearning #Python #PyTorch

nearshorecyber

AI/ML Engineers - Check out this job in Mexico City!

👉 Sr. ML Engineer (Prioritization Engine) - Hybrid with salary of CDMX $140,000 to 150,000 MEX pesos per month
careers-page.com/nearshore-cyb

#Sagemaker #ClearML #DeepLearning #Python #PyTorch

Habr

Пишем свой Transformer

Чтобы поупражняться я решила более детально разобраться и попробовать самостоятельно написать Transformer на PyTorch. Результатом захотелось поделиться здесь. Надеюсь, так же как и мне, это поможет доразобраться в данной архитектуре и ответить на какие-то вопросы.

habr.com/ru/articles/891972/

#transformer #attention #pytorch

Пишем свой Transformer

Чтобы поупражняться я решила более детально разобраться…

Хабр
Habr

Десять уроков развития аппаратных ускорителей для ИИ: как эволюция TPU привела к созданию TPUv4i

В последние годы стало очевидно, что классические центральные процессоры (CPU) и видеокарты (GPU) уже не всегда поспевают за непрерывным ростом и усложнением нейронных сетей. Вместо бесконечного наращивания «универсального» железа, компании начали разрабатывать и внедрять в своих дата-центрах Domain-Specific Architecture (DSA) — аппаратные ускорители, заточенные под конкретные задачи. Google TPU (Tensor Processing Unit) — одно из первых крупных решений такого рода. Начиная с 2015 года (поколение TPUv1), Google успела вывести на рынок несколько поколений TPU для внутренних нужд: TPUv1 и TPUv2/v3, а в 2020 году — новое решение TPUv4i . Если первые версии TPU были ориентированы исключительно на ускорение инференса (выполнение уже обученных моделей), то TPUv2 и TPUv3 смогли взять на себя ещё и тренировку крупных нейросетей. Но в дальнейшем выяснилось, что для оптимальной работы дата-центров в масштабах Google рациональнее разделить решения для тренировки и инференса. TPUv4i — это результат учёта многих уроков и ограничений, проявившихся в предыдущих чипах. В этом материале разберём, какие «десять уроков» сформировали подход Google к созданию TPUv4i , что это за архитектура и какие проблемы дата-центров она решает.

habr.com/ru/articles/892102/

#ml #pytorch #proceesors #deep_learning #inference

Десять уроков развития аппаратных ускорителей для ИИ: как эволюция TPU привела к созданию TPUv4i

В последние годы стало очевидно, что классические центральные…

Хабр
Dmitry Tantsur

Aha, roc* stuff is coming from rocm.docs.amd.com/en/latest which is something AMD-specific. Same for miopen.

I'm pretty annoyed that they are hard dependencies even when I don't have the hardware. Like, it's fine for several megabytes, but we're talking about ~20 GiB of dead weight (that makes #PyTorch not installable on my humble root partition).

It does not look like PyTorch actually requires these unconditionally. Another bug to file?

#Fedora

AMD ROCm documentation — ROCm Documentation

Start building for HPC and AI with the performance-first…

rocm.docs.amd.com
JMLR

'depyf: Open the Opaque Box of PyTorch Compiler for Machine Learning Researchers', by Kaichao You, Runsheng Bai, Meng Cao, Jianmin Wang, Ion Stoica, Mingsheng Long.

jmlr.org/papers/v26/24-0383.ht

#debuggers #pytorch #bytecode

Leanpub

New 📚 Release! A Hands-On Guide to Fine-Tuning Large Language Models with PyTorch and Hugging Face by Daniel Voigt Godoy

A practical guide to fine-tuning Large Language Models (LLMs), offering both a high-level overview and detailed instructions on how to train these models for specific tasks.Find it on Leanpub!

Link: leanpub.com/finetuning

#books #ebooks #newreleases #ai #pytorch #huggingface

Habr

Airsim умер, да здравствует GRID

Привет! В данной вводной статье покажу вам, как моделировать поведение беспилотного автомобиля в городских условиях, не выходя из своей квартиры.

habr.com/ru/articles/885332/

#дроны #ии #иимодель #python #pytorch #беспилотники #робототехника

Airsim умер, да здравствует GRID

Проблема, с которой часто встречаются разработчики,…

Хабр