These are public posts tagged with #pytorch. You can interact with them if you have an account anywhere in the fediverse.
Training large language models requires extensive processing,…
hgpu.org#torchGeo Release v0.7.0
https://www.osgeo.org/community-news/torchgeo-release-v0-7-0/
torchGeo is a #PyTorch domain library designed to make it simple for #machineLearning experts to work with #EO data, providing datasets, samplers, transforms, and pre-trained models specific to #geospatial data.
NEW Paper: #Modelling #NeuralNetwork Models + generators for #TensorFlow and #PyTorch
https://modeling-languages.com/modelling-neural-network-models/
Part of the latest BESSER release https://github.com/BESSER-PEARL/BESSER/releases
MCP, Agentic Knowledge Graphs & AI Models: Solving Conversational Analytics
In this free webinar led by ex-Snowflake, Cloudera, and Amazon leaders, we'll unveil how cutting-edge LLMs (GPT 4.5, Sonnet 3.7, Deepseek V3/R1, Gemini 2.5, etc.) are revolutionizing data products.
#python #machinelearning #deeplearning #ai #developer #dev #devsecops #devops #mlops #learn #learning #study #git #github #codeberg #tensorflow #pytorch #jax #huggingface #linux #ubuntu #popos #llm
Co-hosted by Gunther Hagleitner and Wangda Tan, former…
EventbriteTorch Lens Maker
https://victorpoughon.github.io/torchlensmaker – Librería en Python para el diseño de elementos ópticos utilizando modelos de optimización con PyTorch
Differentiable geometric optics in PyTorch
victorpoughon.github.ioMaking the rounds. Worth a reshare on the fedi
... This post is a long form essay version of a talk about PyTorch internals given at the PyTorch NYC meetup on May 14, 2019....
AI/ML Engineers - Check out this job in Mexico City!
Sr. ML Engineer (Prioritization Engine) - Hybrid with salary of CDMX $140,000 to 150,000 MEX pesos per month
https://www.careers-page.com/nearshore-cyber/job/QWWY6846
AI/ML Engineers - Check out this job in Mexico City!
Sr. ML Engineer (Prioritization Engine) - Hybrid with salary of CDMX $140,000 to 150,000 MEX pesos per month
https://www.careers-page.com/nearshore-cyber/job/QWWY6846
Пишем свой Transformer
Чтобы поупражняться я решила более детально разобраться и попробовать самостоятельно написать Transformer на PyTorch. Результатом захотелось поделиться здесь. Надеюсь, так же как и мне, это поможет доразобраться в данной архитектуре и ответить на какие-то вопросы.
Чтобы поупражняться я решила более детально разобраться…
ХабрДесять уроков развития аппаратных ускорителей для ИИ: как эволюция TPU привела к созданию TPUv4i
В последние годы стало очевидно, что классические центральные процессоры (CPU) и видеокарты (GPU) уже не всегда поспевают за непрерывным ростом и усложнением нейронных сетей. Вместо бесконечного наращивания «универсального» железа, компании начали разрабатывать и внедрять в своих дата-центрах Domain-Specific Architecture (DSA) — аппаратные ускорители, заточенные под конкретные задачи. Google TPU (Tensor Processing Unit) — одно из первых крупных решений такого рода. Начиная с 2015 года (поколение TPUv1), Google успела вывести на рынок несколько поколений TPU для внутренних нужд: TPUv1 и TPUv2/v3, а в 2020 году — новое решение TPUv4i . Если первые версии TPU были ориентированы исключительно на ускорение инференса (выполнение уже обученных моделей), то TPUv2 и TPUv3 смогли взять на себя ещё и тренировку крупных нейросетей. Но в дальнейшем выяснилось, что для оптимальной работы дата-центров в масштабах Google рациональнее разделить решения для тренировки и инференса. TPUv4i — это результат учёта многих уроков и ограничений, проявившихся в предыдущих чипах. В этом материале разберём, какие «десять уроков» сформировали подход Google к созданию TPUv4i , что это за архитектура и какие проблемы дата-центров она решает.
В последние годы стало очевидно, что классические центральные…
ХабрAha, roc* stuff is coming from https://rocm.docs.amd.com/en/latest which is something AMD-specific. Same for miopen.
I'm pretty annoyed that they are hard dependencies even when I don't have the hardware. Like, it's fine for several megabytes, but we're talking about ~20 GiB of dead weight (that makes #PyTorch not installable on my humble root partition).
It does not look like PyTorch actually requires these unconditionally. Another bug to file?
Start building for HPC and AI with the performance-first…
rocm.docs.amd.com'depyf: Open the Opaque Box of PyTorch Compiler for Machine Learning Researchers', by Kaichao You, Runsheng Bai, Meng Cao, Jianmin Wang, Ion Stoica, Mingsheng Long.
http://jmlr.org/papers/v26/24-0383.html
#debuggers #pytorch #bytecode
New Release! A Hands-On Guide to Fine-Tuning Large Language Models with PyTorch and Hugging Face by Daniel Voigt Godoy
A practical guide to fine-tuning Large Language Models (LLMs), offering both a high-level overview and detailed instructions on how to train these models for specific tasks.Find it on Leanpub!
Import GPU: Python Programming with CUDA https://hackaday.com/2025/02/25/import-gpu-python-programming-with-cuda/ #graphicsprocessing #parallelprocessing #developer #pytorch #NVIDIA #python #torch #News #CUDA #gpu
Every few years or so, a development in computing results…
HackadayAirsim умер, да здравствует GRID
Привет! В данной вводной статье покажу вам, как моделировать поведение беспилотного автомобиля в городских условиях, не выходя из своей квартиры.
https://habr.com/ru/articles/885332/
#дроны #ии #иимодель #python #pytorch #беспилотники #робототехника
Проблема, с которой часто встречаются разработчики,…
ХабрHi Everyone,
Check out this video by Oke Eniifeoluwa
Also, like and subscribe for more updates.
https://www.youtube.com/watch?v=afDBaTvb2zc&ab_channel=NeuralRow
#NeuralRow #UNet #OpenAI #DataScience #MachineLearning #UNetplusplus #AI #PyTorch #Python #DeepLearning #NeuralNetworks
Enjoy the videos and music you love, upload original…
www.youtube.com