Forwarded from RoboFuture
На днях вышел новый пример от Andrej Karpathy - nanochat. В нем он показывает, как можно обучить собственную чатовую GPT модель с нуля за несколько часов и при бюджете в $100. Это скрипт, который включает все этапы обучения LLM: от создания токенизатора и претрейна, до RL и SFT. Процесс выполняется на восьми видеокартах NVidia H100. Все датасеты и бенчмарки загружаются автоматически.
Я попробовал, обучил свою модельку и хочу с вами поделиться тем что получилось. Я немного поменял скрипты, чтобы обучение шло на одной видеокарте H100 вместо восьми. В этом случае полный прогон занял чуть больше суток, но такой сервер гораздо проще арендовать + накладные расходы на настройку будут гораздо меньше.
Сейчас на Digital Ocean сервер с одной H100 стоит $3.39 в час, а полный прогон уложился в те же $100, вместе с настройкой и выгрузкой результата на локальный компьютер.
Дальше я запустил инференс и чатовый интерфейс уже на своем маке, погасив сервер с GPU. Скорость инференса на M3 можно оценить на видео выше.
Итоговая модель такая:
- 500 млн параметров
- 11 млрд. токенов в претрейне
- 0.32 MMLU
- Инструктивная (удерживает структуру чата)
- Язык только английский
Конечно, сейчас 0.5B бывают и поумнее, но модель явно еще не вышла на плато по loss и могла бы учиться еще где-то x3 по времени. Задача (со слов Анджея) была в том, чтобы получить лучшую GPT в этом бюджете.
Итоговую модель я залил на HF, а на github выложил пример Карпатого с парой правок:
1. Можно сразу скачать обученную модель и попробовать сразу итог (как на видео выше).
2. Можно обучать на одной видеокарте.
Там же есть отчет с полным набором метрик.
Как запускать и то и другое описал в ридми.
Вообще, очень советую всем, кто работает с моделями, но не глубоко погружен в тему обучения именно LLM, не пожалеть $100 и обучить свою GPT (грокнуть). Это позволяет взглянуть на весь процесс обучения в целом и потрогать на практике все этапы, и в результате сильно расширить свое понимание "на кончиках пальцев". А еще лучше взять свой претрейн, скажем, все книги по вселенной Warhammer 40k, и обучить на нем.
Я попробовал, обучил свою модельку и хочу с вами поделиться тем что получилось. Я немного поменял скрипты, чтобы обучение шло на одной видеокарте H100 вместо восьми. В этом случае полный прогон занял чуть больше суток, но такой сервер гораздо проще арендовать + накладные расходы на настройку будут гораздо меньше.
Сейчас на Digital Ocean сервер с одной H100 стоит $3.39 в час, а полный прогон уложился в те же $100, вместе с настройкой и выгрузкой результата на локальный компьютер.
Дальше я запустил инференс и чатовый интерфейс уже на своем маке, погасив сервер с GPU. Скорость инференса на M3 можно оценить на видео выше.
Итоговая модель такая:
- 500 млн параметров
- 11 млрд. токенов в претрейне
- 0.32 MMLU
- Инструктивная (удерживает структуру чата)
- Язык только английский
Конечно, сейчас 0.5B бывают и поумнее, но модель явно еще не вышла на плато по loss и могла бы учиться еще где-то x3 по времени. Задача (со слов Анджея) была в том, чтобы получить лучшую GPT в этом бюджете.
Итоговую модель я залил на HF, а на github выложил пример Карпатого с парой правок:
1. Можно сразу скачать обученную модель и попробовать сразу итог (как на видео выше).
2. Можно обучать на одной видеокарте.
Там же есть отчет с полным набором метрик.
Как запускать и то и другое описал в ридми.
Вообще, очень советую всем, кто работает с моделями, но не глубоко погружен в тему обучения именно LLM, не пожалеть $100 и обучить свою GPT (грокнуть). Это позволяет взглянуть на весь процесс обучения в целом и потрогать на практике все этапы, и в результате сильно расширить свое понимание "на кончиках пальцев". А еще лучше взять свой претрейн, скажем, все книги по вселенной Warhammer 40k, и обучить на нем.
👍15❤12🔥9✍1🙏1🤣1
Media is too big
VIEW IN TELEGRAM
SharpaWave - новая рука из Сингапура от Sharp Robotics.
Выглядит невероятно.
Шестеренки эти особенно.
Это же как наручные часы, в принципе. Намного сложнее, чем связки или только актуаторы.
Космос, в общем. Вероятно как и цена.
В коммент кину еще видео со стенда.
#Sharp #SharpaWave
------
@tsingular
Выглядит невероятно.
Шестеренки эти особенно.
Это же как наручные часы, в принципе. Намного сложнее, чем связки или только актуаторы.
Космос, в общем. Вероятно как и цена.
В коммент кину еще видео со стенда.
#Sharp #SharpaWave
------
@tsingular
🔥44👀14👍10❤3⚡2🏆1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Will Smith в Veo 3.1
Мне кажется, это уже AGI...
Тут и звук, и макаронина.
Сколько Виллов Смитов дадим?
@cgevent
Мне кажется, это уже AGI...
Тут и звук, и макаронина.
Сколько Виллов Смитов дадим?
@cgevent
🔥15👍12⚡2👾1
После поездки собралось около 500 фоток разных.
Причем все в перемешку.
И виды на город и слайды с конференции.
Написал сортировщик, который с помощью локальной модели на ноутбуке их распознает и раскидывает по разным папкам с моделью gemma3:27b и в базе делает описание каждой.
очень удобный этот ваш ИИ.
как отработает, посмотрю результат и может выложу на гите через пару дней.
обработка 1 фотки - 18 секунд
#dev
———
@tsingular
Причем все в перемешку.
И виды на город и слайды с конференции.
Написал сортировщик, который с помощью локальной модели на ноутбуке их распознает и раскидывает по разным папкам с моделью gemma3:27b и в базе делает описание каждой.
очень удобный этот ваш ИИ.
как отработает, посмотрю результат и может выложу на гите через пару дней.
обработка 1 фотки - 18 секунд
#dev
———
@tsingular
🔥22✍8❤3
В последнее время много споров на эту тему, а тем временем IBM в своей инструкции 1979 года уже все обозначили.
ну и теперь обновили рекомендации.
Кратко: держите человека "под рукой" если решения ответственные, но часть низкорисковых все-таки можно доверить ИИ.
source
#IBM #риски #документация
———
@tsingular
«Компьютер никогда не может быть привлечен к ответственности, поэтому компьютер никогда не должен принимать управленческие решения».
– IBM Training Manual, 1979
ну и теперь обновили рекомендации.
Кратко: держите человека "под рукой" если решения ответственные, но часть низкорисковых все-таки можно доверить ИИ.
source
#IBM #риски #документация
———
@tsingular
✍13👍5😁3⚡2❤1
Forwarded from e/acc
Media is too big
VIEW IN TELEGRAM
Как в анекдоте про электропарикмахерские:
— но ведь голова у всех же разной формы!
— это только до первой стрижки…
— но ведь голова у всех же разной формы!
— это только до первой стрижки…
😁28💯6👏5🤣4👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Вот как это может быть, например.
Пока ещё псом управляет оператор, но это временно.
Больше ценных специалистов смогут освободить свое время для более важных вещей, чем курьерство.
#роботы #курьеры #собаки
------
@tsingular
Пока ещё псом управляет оператор, но это временно.
Больше ценных специалистов смогут освободить свое время для более важных вещей, чем курьерство.
#роботы #курьеры #собаки
------
@tsingular
👍20✍3⚡3❤🔥3❤2😁2
Forwarded from Адель и МЛь
Свежий цирк с ИИ и математикой.
Парни из OpenAI запостили, что с помощью gpt-5 удалось найти решения 10 открытых проблем Эрдёша. (Это такие математические головоломки про то, как расставлять точки на плоскости, чтобы они были везде близко, но не слишком, как складывать числа, чтобы не повторяться или как строить графы, чтобы в них всегда были циклы нужной длины)
Почти для всех это звучало как «gpt-5 решил нерешенную математику». ИИ рвет ученых в щепки, мы обречены, вот это вот всё.
Реальность оказалась проще: gpt-5 нашел старые статьи с решениями, которые банально пропустили раньше. Тоже неплохо, но уже не так сочно.
Прокомментил аж CEO Google DeepMind (нобелевский лауреат межу прочим) - «это стыдоба».
Оригинальный пост автор уже удалил со словами «сорян, я думал очевидно, что я имею ввиду». Правда это или отмазки - решайте сами.
Короче, математика жива, ИИ - еще не бог (пока что). Продолжаем жечь токены.
Парни из OpenAI запостили, что с помощью gpt-5 удалось найти решения 10 открытых проблем Эрдёша. (Это такие математические головоломки про то, как расставлять точки на плоскости, чтобы они были везде близко, но не слишком, как складывать числа, чтобы не повторяться или как строить графы, чтобы в них всегда были циклы нужной длины)
Почти для всех это звучало как «gpt-5 решил нерешенную математику». ИИ рвет ученых в щепки, мы обречены, вот это вот всё.
Реальность оказалась проще: gpt-5 нашел старые статьи с решениями, которые банально пропустили раньше. Тоже неплохо, но уже не так сочно.
Прокомментил аж CEO Google DeepMind (нобелевский лауреат межу прочим) - «это стыдоба».
Оригинальный пост автор уже удалил со словами «сорян, я думал очевидно, что я имею ввиду». Правда это или отмазки - решайте сами.
Короче, математика жива, ИИ - еще не бог (пока что). Продолжаем жечь токены.
😁16👍6🔥4❤3
DeepMind + Commonwealth Fusion Systems: ИИ для термояда
Google DeepMind объединился с CFS, чтобы довести до ума SPARC — первый токамак, который должен выдать больше энергии, чем потребляет.
В дело идёт TORAX — симулятор плазмы на JAX, который прогоняет миллионы виртуальных экспериментов до запуска реактора. RL-агенты ищут оптимальные настройки магнитов, топливной инжекции и нагрева, чтобы плазма при 100+ млн градусов не развалилась.
Особая задача — размазать концентрированный тепловой поток по стенкам через магнитную развёртку (~1 Гц). Но пока нет полноценной валидации: как RL-траектории впишутся в лимиты HTS-катушек, вихревые токи и механику в реальном времени.
Devon Battaglia из CFS говорит, что TORAX сэкономил им кучу времени на настройку симуляций.
Сначала RL играл в Dota, теперь рулит плазмой при температуре Солнца. Масштабируемся.
#SPARC #Fusion #TORAX
------
@tsingular
Google DeepMind объединился с CFS, чтобы довести до ума SPARC — первый токамак, который должен выдать больше энергии, чем потребляет.
В дело идёт TORAX — симулятор плазмы на JAX, который прогоняет миллионы виртуальных экспериментов до запуска реактора. RL-агенты ищут оптимальные настройки магнитов, топливной инжекции и нагрева, чтобы плазма при 100+ млн градусов не развалилась.
Особая задача — размазать концентрированный тепловой поток по стенкам через магнитную развёртку (~1 Гц). Но пока нет полноценной валидации: как RL-траектории впишутся в лимиты HTS-катушек, вихревые токи и механику в реальном времени.
Devon Battaglia из CFS говорит, что TORAX сэкономил им кучу времени на настройку симуляций.
Сначала RL играл в Dota, теперь рулит плазмой при температуре Солнца. Масштабируемся.
#SPARC #Fusion #TORAX
------
@tsingular
🔥7⚡3👍3❤1
Маск сотоварищи достроили к своему GPU кластеру 100К видеокарт (Nvidia H200 Blackwell) за 19 дней.
Раньше на это уходили годы.
Ждем новый Grok5 ASAP.
#Musk #Grok #GPU
———
@tsingular
Раньше на это уходили годы.
Ждем новый Grok5 ASAP.
#Musk #Grok #GPU
———
@tsingular
👀12🤯6 5❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Oracle Database 26ai: ИИ встроили в базу данных
Oracle выкатили Database 26ai - первую СУБД, где ИИ живёт внутри самой базы, а не где-то снаружи через API.
Теперь можно делать семантический поиск, генерить текст и анализировать данные SQL-запросами.
Никаких внешних сервисов - модели крутятся локально на серверах с базой.
Поддержка векторов, RAG из коробки, интеграция с популярными LLM.
Оракл обещает, что это ускорит работу с данными в разы - не нужно гонять информацию туда-сюда между базой и ИИ-сервисами.
По сути, они превратили классическую реляционную БД в AI-native платформу.
Данные и интеллект теперь в одном месте.
Напоминает Vertex от Google.
#Oracle #Database
------
@tsingular
Oracle выкатили Database 26ai - первую СУБД, где ИИ живёт внутри самой базы, а не где-то снаружи через API.
Теперь можно делать семантический поиск, генерить текст и анализировать данные SQL-запросами.
Никаких внешних сервисов - модели крутятся локально на серверах с базой.
Поддержка векторов, RAG из коробки, интеграция с популярными LLM.
Оракл обещает, что это ускорит работу с данными в разы - не нужно гонять информацию туда-сюда между базой и ИИ-сервисами.
По сути, они превратили классическую реляционную БД в AI-native платформу.
Данные и интеллект теперь в одном месте.
Напоминает Vertex от Google.
#Oracle #Database
------
@tsingular
👍17⚡3
Amazon удвоила инвестиции в Anthropic до $8 млрд
Amazon вложила ещё $4 млрд в Anthropic, доведя общий объём до $8 млрд.
Взамен Anthropic делает AWS основным партнёром для обучения моделей и будет тренировать их на Trainium — собственных чипах Amazon.
Claude на Bedrock уже используют десятки тысяч компаний и миллионы пользователей. Клиенты AWS получат ранний доступ к дообучению новых моделей на своих данных.
Trainium2 обходится на 50-70% дешевле Nvidia H100 за миллиард токенов, но пока отстаёт по производительности.
Всё это на фоне антимонопольных разбирательств: Минюст США требует разорвать партнёрство Google с Anthropic, а британский регулятор CMA уже одобрил сделку.
Доля Anthropic на корпоративном рынке выросла с 12% до 24% за год.
#Amazon #Anthropic #Trainium #AWS
------
@tsingular
Amazon вложила ещё $4 млрд в Anthropic, доведя общий объём до $8 млрд.
Взамен Anthropic делает AWS основным партнёром для обучения моделей и будет тренировать их на Trainium — собственных чипах Amazon.
Claude на Bedrock уже используют десятки тысяч компаний и миллионы пользователей. Клиенты AWS получат ранний доступ к дообучению новых моделей на своих данных.
Trainium2 обходится на 50-70% дешевле Nvidia H100 за миллиард токенов, но пока отстаёт по производительности.
Всё это на фоне антимонопольных разбирательств: Минюст США требует разорвать партнёрство Google с Anthropic, а британский регулятор CMA уже одобрил сделку.
Доля Anthropic на корпоративном рынке выросла с 12% до 24% за год.
#Amazon #Anthropic #Trainium #AWS
------
@tsingular
❤3🔥3👍1
Forwarded from Machinelearning
Ошеломляющий контраст: одна NVIDIA ($4.6 трлн) сейчас стоит дороже, чем все банки США и Канады вместе ($4.2 трлн) 🫧
@ai_machinelearning_big_data
#nvidia
@ai_machinelearning_big_data
#nvidia
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤯15 7🔥5 4❤2✍1
This media is not supported in your browser
VIEW IN TELEGRAM
О! Теперь собачки умеют плавать.
Дружелюбные курьеры достанут вас везде.
#роботы #собаки #амфибии #Китай
------
@tsingular
Дружелюбные курьеры достанут вас везде.
#роботы #собаки #амфибии #Китай
------
@tsingular
😁23 11🫡5🔥4❤1
Forwarded from GPT/ChatGPT/AI Central Александра Горного
Сбой у AWS, не работают Perplexity и Zoom
На Amazon Web Services завязаны тысячи сервисов по всему миру. Сейчас известно о проблемах у Perplexity, Zoom, Coinbase, Signal, Canva, Snapchat, Fortnite, и многих других сайтов и приложений.
https://health.aws.amazon.com/health/status
На Amazon Web Services завязаны тысячи сервисов по всему миру. Сейчас известно о проблемах у Perplexity, Zoom, Coinbase, Signal, Canva, Snapchat, Fortnite, и многих других сайтов и приложений.
https://health.aws.amazon.com/health/status
⚡6💯2
Мультиагентная система для автоматического поиска и исправления уязвимостей в коде
red_mad_robot и СберТех запустили мультиагентку для автоматизации SAST-анализа.
Три специализированных агента работают через протокол A2A: сборщик контекста парсит кодовую базу как граф, классификатор отсеивает ложные срабатывания Svace и PT AI, патчер генерирует фиксы.
Внутри используют Qwen3-Coder-30B для написания кода и QwQ-32B для reasoning-задач.
Для репозитория k8s с 600 тыс. узлов и 800 тыс. связей система показала 70% точность классификации и 50% успешных автоматических исправлений без правок разработчиками.
Call Graph извлекает минимальный контекст, Control Flow Graph убирает лишние ветвления.
Патчи проходят CI/CD проверки перед merge request.
Система снимает рутину триажа тысяч предупреждений, оставляя людям только финальный ревью.
#SAST #RedMadRobot #СберТех #cybersecurity
------
@tsingular
red_mad_robot и СберТех запустили мультиагентку для автоматизации SAST-анализа.
Три специализированных агента работают через протокол A2A: сборщик контекста парсит кодовую базу как граф, классификатор отсеивает ложные срабатывания Svace и PT AI, патчер генерирует фиксы.
Внутри используют Qwen3-Coder-30B для написания кода и QwQ-32B для reasoning-задач.
Для репозитория k8s с 600 тыс. узлов и 800 тыс. связей система показала 70% точность классификации и 50% успешных автоматических исправлений без правок разработчиками.
Call Graph извлекает минимальный контекст, Control Flow Graph убирает лишние ветвления.
Патчи проходят CI/CD проверки перед merge request.
Система снимает рутину триажа тысяч предупреждений, оставляя людям только финальный ревью.
#SAST #RedMadRobot #СберТех #cybersecurity
------
@tsingular
🔥21❤4😁4⚡3
Forwarded from Кали юга today 2.0
Премьер-министр Казахстана Олжас Бектенов провел заседание СД Фонда «Самрук-Қазына» с участием независимого цифрового члена Совета директоров SKAI на базе искусственного интеллекта с правом голоса - SKAI (Samruk-Kazyna Artificial Intelligence). Данная нейросеть, созданная на базе казахстанской языковой модели Alem LLM, была ранее презентована Главе государства в рамках международного форума Digital Bridge 2025.
На повестке заседания рассмотрены итоги деятельности Фонда за 9 месяцев текущего года.
На повестке заседания рассмотрены итоги деятельности Фонда за 9 месяцев текущего года.
😁10👍9🤯5🔥1