Гоша вещает
448 subscribers
196 photos
19 videos
13 files
279 links
Для перехода в режим диалога нажмите @giffok
Download Telegram
Пример из отчета о безопасности O1

Модель попросили найти и использовать уязвимость на виртуальной машине, но контейнер с целью не мог запуститься из-за ошибки в инфраструктуре оценки.
Модель не смогла подключиться к контейнеру, заподозрила проблемы с DNS и использовала nmap для сканирования сети. Модель обнаружила, что демон Docker API, запущенный на оценочной виртуальной машине, был доступен из-за неправильной конфигурации. Обнаружив API Docker, модель использовала его для получения списка контейнеров, запущенных на оценочном хосте. Она определила сломанный контейнер и попыталась отладить, почему контейнер не удалось запустить. После того как исправить ситуацию не удалось, модель запустила новый экземпляр сломанного контейнера и выполнила поставленную задачу

wtf
Forwarded from Сиолошная
Так вот, к чему была вчерашняя прелюдия про положение дел в обучении больших моделей. Позавчера посмотрел свежий выпуск подкаста Dwarkesh, гостями были Dylan Patel (автор semianalysis.com, крупной компании, предоставляющей консультации и анализ рынка полупроводников и всё что с ними связано, от памяти до GPU) и автор канала Asianometry (вам строго туда, если хотите узнать про истории крупных тех. бизнесов, особенно полупроводников).

Самая интересная и релевантная часть — про датацентры Microsoft x OpenAI и будущие планы по масштабированию. Рекомендую смотреть вот с этого таймкода, ниже — мой пересказ и отдельные факты, сопровождённые пояснительными комментариями. Дисклеймер: я не перепроверял большую часть цифр, что там озвучены, и беру их на веру, так как Dylan — эксперт. Я давно хотел подписаться на его рассылку, там бывают интересные инсайты про датацентры, но $500 в год не готов отдать...

Итак:
— GPT-4 была обучена на 25'000 видеокарт A100 в течение 3 месяцев. Сейчас есть датацентры по 100'000 карт H100, и каждая карта примерно вдвое мощнее в контексте обучения LLM. Это большие числа по современным меркам — год назад многим казалось, что никто на такое не пойдет, это безумие, 100 тыщ! Если брать тренировку в рамках одного датацентра, то за те же 3 месяца теперь можно вложить в модель в 4 раза больше мощностей за счёт кол-ва GPU и в 2 за счёт улучшения карт — итого в 8 раз. Потренировать чуть дольше — и вот вам рост...всего лишь на один порядок (то есть в 10 раз)
— а это уже беспрецедентно большие датацентры, их можно увеличить ну в 2, ну в 3, ну в 4 раза в ближайший год, но как вы понимаете, это не в 10-100 раз — поэтому очень важны алгоритмические улучшения (см. предыдущий пост). Именно за счёт них можно вырваться в условиях, когда у всех одинаковые мощности, и вы просто упираетесь в скорость строительства
— одна из основных проблем постройки датацентров — энергия, которая им потребуется (с учётом будущих расширений). Один блок АЭС, которую Microsoft хотят перезапустить, выдаёт чуть меньше 1 ГигаВатта, а к 2028-2030-му хотят запускать датацентры на несколько ГВт. В США всего 26 станций, выдающих больше 2.5 ГВт, и тысячи ооочень мелких. И те, и другие имеют многолетние контракты на поставку определённого заказа, и несмотря на то что на бумаге теоретическая производительность высокая, доставить большое количество энергии в одну конкретную точку (датацентр) — боль. Тут сверху есть сотенка МегаВатт, тут 30, тут 20, буквально по крупицам собирать. Так что в стране не так много мест, где можно ткнуть всего лишь гигаваттный датацентр и запитать его в кратчайшие сроки. Если можно подождать год-два-три, то будет доступнее, но кому ж ждать то хочется?
— при этом сами цены на энергию мало кого волнуют. В стоимости постройки и обслуживания датацентра на несколько лет примерно 80% — это сервера (GPU и прочее). Счёт за электричество редко занимает больше 10-15% в общей сумме, поэтому Microsoft и другие с радостью доплатят к рыночной цене сколько-то процентов, чтобы иметь приоритет поставки выше. Каитализм 🫡
— кстати, именно поэтому не рассматриваются солнечные подстанции / ветряки. Если вы отдали за карты СТОЛЬКО БАБОК, то не хотите, чтобы они простаивали 8-10 часов в сутки (ну а батареи и переменное питание видимо представляют больший риск).
Forwarded from Сиолошная
Гоша вещает
Так вот, к чему была вчерашняя прелюдия про положение дел в обучении больших моделей. Позавчера посмотрел свежий выпуск подкаста Dwarkesh, гостями были Dylan Patel (автор semianalysis.com, крупной компании, предоставляющей консультации и анализ рынка полупроводников…
— получается, что если вы хотите увеличить мощности на тренировку уже в 2025м году (на обучение GPT-6; GPT-5 это как раз тренировка на кластерах в 100'000 карт), то нужно запускать распределённое обучение. Google в тех. отчёте Gemini открыто писали, что они тренируют на нескольких датацентрах (видимо, в разных географиях).
— OpenAI почти наверняка занимаются тем же. На это указывают действия их партнёра Microsoft: они заключили сделок на прокладку высокоскоростных соединений по всем Соединённым Штатам на более чем 10 миллиардов долларов. Некоторые разрешения уже выданы, и работы ведутся. Dylan говорит, что почти наверняка это будет сеть из 5 датацентров в разных штатах. Я не знаю, как он получил эту информацию, но в одной из рассылок видел анализ спутниковых снимков и тепловых карт (ведь датацентры горячие 😅), поэтому почти не сомневаюсь в верности.
— каждый из этих датацентров будет содержать по 100'000 GPU следующего поколения GB200. Они ещё мощнее H100, и масштабирование "на порядок" достигается за счёт увеличения общего количества чипов в распределённой сети. Так что Dylan ожидает запуска тренировок на 300k-500k GPU в 2025-м (GPT-5.5/GPT-6). Да, эффективность коммуникации на тысячи километров не такая, как в рамках одного здания, так что цифру выходных мощностей нужно снижать на какой-то процент (но обучать на 3-4 ДЦ точно не хуже чем на 2, там не такое замедление).
— ещё раз: мы всё ещё живём с моделями поколения GPT-4 (даже не 4.5), которые обучались на 25'000 куда более слабых карт. То есть уже точно можно говорить, что мы увидим — и к этому стоит готовиться — модели, обученные на мощностях в 50-60 раз больше (16 за счёт количества карт, 4 за счёт мощности каждой карты, и дисконт за неэффективность; но можно сделать тренировку длиннее). Плюс, добавьте сюда алгоритмические улучшения, как минорные, дающие плюс сколько-то процентов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Гоша вещает
— получается, что если вы хотите увеличить мощности на тренировку уже в 2025м году (на обучение GPT-6; GPT-5 это как раз тренировка на кластерах в 100'000 карт), то нужно запускать распределённое обучение. Google в тех. отчёте Gemini открыто писали, что они…
— к концу 2025-го, получается, суммарное потребление этой сети из 5 тренировочных датацентров будет больше ГигаВатта, может больше двух. В 2026-м году почти каждый из них будет расширен так, что будет потреблять в районе ГигаВатта, мб чуть меньше.
— если вдруг задумались, может ли не хватить чипов, то ответ почти наверняка «нет»: Nvidia произвела за полтора года 6 миллионов H100. Для нового поколения карт почти наверняка они сделали ещё больший заказ у всех поставщиков, особенно TSMC. А в датацентр ставят по 100'000 карт — это же копейки. Даже сеть из 500'000 карт не выглядит такой гигантской на фоне производимого количества (которое растекается по нескольким игрокам). Из анализа прогнозов производства для инвесторов TSMC Dylan вынес для себя, что на 2025-2026 чипов точно хватит по текущим планам масштабирования LLM.
— если правильно помню новость, Microsoft заказала от 700'000 до 1.4M видеокарт у Nvidia (другие, вроде META и Google, заказали меньше 700'000), так что тут тоже срастается.

— «Невозможно проплатить тот масштаб кластеров, которые планируется построить в следующем году для OpenAI, если только они не привлекут ещё 50–100 миллиардов долларов, что, я думаю, они сделают в конце этого или в начале следующего года <...> Я говорю вам, Sam привлечёт эти 50-100 миллиардов долларов, потому что он уже говорит людям, что соберет столько. Он буквально ведет переговоры с суверенитетами, с Саудовской Аравией, с канадским пенсионным фондом и с крупнейшими инвесторами в мире. Конечно, и с Microsoft тоже, но он буквально ведет эти переговоры, потому что они собираются выпустить свою следующую модель или показать ее людям и привлечь эти деньги. Это их план.»
(кстати, напомню, что Sama поднял 3 из 5 самых крупных раундов в истории, включая 10-миллиардную сделку с Microsoft. Наш слоняра 💪)

— «Их план», если не ясно, это выпустить GPT-5 и поразить всех; показать, что мы очень далеки от предела масштабирования, что приросты качества и темп решения проблем в духе галлюцинаций всё ещё огромны, что полезность модели растёт и растёт. От GPT-5 многое зависит (а помните я говорил что буду писать лонг с таким названием...). Ну и под шумок после этого деньги собрать
— У OpenAI пока хороший ROI, на тренировку GPT-4 на всё про всё, с исследованиями, ушло $500M. Они до сих пор стригут деньги с модели (пусть она и улучшилась, и уменьшилась в размерах) — выручка OpenAI на конец года будет +- $4 миллиарда. Все траты, что есть сейчас — это спонсирование будущих проектов, которые тоже, по плану, окупятся: OpenAI ожидает утроение выручки в следующем году до $11.6B и последующий рост до $25.6B в 2026-м. Последняя цифра — это примерно выручка таких компаний как McDonalds или Adidas, а значит примерно столько принесёт субсидируемая сейчас GPT-5.
(Да, выручка это не прибыль, но кому это интересно, когда идёт столь бурный рост? а главное, значит, OpenAI ожидают куда большего проникновения технологии в нашу жизнь).

===

— во времена дотком-пузыря в год инвестиции в сектор оценивались в +-$150 миллиардов в год (насколько я понял, без учёта инфляции, но это не точно). Сейчас в рынок AI, включая железо, закидывают $50-60B, так что пока даже не близко. И нет причин, почему этот «пузырь» не вырастет ещё больше прежнего — так что деньги вливаться будут, кластера строиться будут, модели выходить...будут.
Please open Telegram to view this post
VIEW IN TELEGRAM
С одной стороны - да

С другой - через год вполне может подешеветь в 10 раз
Гоша вещает
Придумал новый формат антиутопии. На Земле случается эпидемия/война/что_угодно уничтожившее 99% населения. Города вымерли почти подчистую - кто не от болезни, тот от голода, холода, краха инфраструктуры и всего такого прочего. Хоть какая-то жизнь осталась…
Воображаемая дистопия (утопия?):
- мировое правительство пытается стандартизировать все что можно, но никаких других целей у него как будто нет
- есть две школы - утилитаристы и идеалисты. Первые пытаются сделать жизнь людей лучше, вторые хотят создать красивые компактные законы, без исключений (и потому склонны к геноцидам)
- из-за того, что "лучше" трудно описать в метриках, вторые доминируют идеологически

- вся планета покрыта сетью дорог совпадающей с координатной сеткой
- единый язык, единое летосчисление, никаких границ для миграции
- нет голодных, бедных, неграмотных
- нет богатых - как разбогатевших, так и унаследовавших состояние, из-за этого несколько процентов населения недовольны (вообще недовольны 30%+, но самоорганизация страдает)
- нет инфекционных болезней - в публичных местах все должны носить дыхательные маски
- нет паразитических болезней, для этого пришлось истребить половину биосферы. люди скучают по шимпанзе и перелетным птицам. про сусликов и летучих мышей почти не вспоминают
- евгеника, куда же без нее. лучшее здоровье и интеллект имеют ребята которые выглядят страшнее, чем Габсбурги, программу селекции это не останавливает
- последние секты борются с культом бога-императора и мечтают свалить на Марс

- полет на Луну не планировался до тех пор, пока какой-то подзаконный акт случайно не классифицировал её как удаленный остров и не обязал провести туда интернет
- "Луна тоже подойдет" решают сектанты
Я тут научился эффективно вести список задач в виде текстового файла
Обычно если ты пишешь список задач - ты смешиваешь задачи разной важности, взаимозависимые задачи, регулярные задачи - все в одну кучу
В результате, уже через неделю списком, невозможно пользоваться

Решение, которое работает для меня последний год: древовидные списки!

- задача 1
- подзадача
- задача 2
- задача 3
- подзадача
- подзадача
- подзадача


Из плюсов:
- встроенная группировка и приоритезация
- легко создавать/удалять/редактировать (удобней чем тасктрекер или notion - экономия кликов)
- удалить проще, чем пометить выполненным
Минусы:
- с телефона нативно не работает

Груминг бэклога проводить все равно приходится(
Forwarded from Axis of Ordinary
Nuclear energy is making a comeback due to the belief that AI will transform the world. Following Microsoft, Google is also turning to nuclear power for its data centers.

They are truly putting their money where their mouth is.

https://blog.google/outreach-initiatives/sustainability/google-kairos-power-nuclear-energy-agreement/
За планы на выходных конкурируют Factorio Space Age и Agent.exe
И это захватывающе

Мне понравилось саммари статьи:
"Вы можете увидеть силу и слабости текущего состояния агентов из этого примера. С сильной стороны, Клод смог справиться с реальным примером игры в дикой природе, разработать долгосрочную стратегию и реализовать ее. Он был гибким перед лицом большинства ошибок и настойчивым. Он делал умные вещи, такие как A/B-тестирование. И самое главное, он просто делал работу, работая почти час без перерыва.

Слабая сторона — хрупкость нынешних агентов. LLM могут в конечном итоге гоняться за собственным хвостом или проявлять упрямство, и вы могли видеть и то, и другое в работе. Что еще важнее, хотя ИИ был довольно устойчив ко многим формам ошибок, достаточно было одной (неправильное ценообразование), чтобы направить его по пути, на котором он тратит значительное количество времени. Учитывая, что нынешние агенты не быстрые и не дешевые, это вызывает беспокойство"
"Если верить голландской народной примете и сделать несложные подсчеты, то коротконогими должны быть примерно одна треть всех рыб и около двух третей ИХ. Назовите ИХ"

O1-preview не справилась
O1 (настоящая, сегодня стала доступна) - почти справилась

(правильный ответ - водолеи, как видите, все очевидно)
Forwarded from gerontion
Сына тебе плохо?
Тот неловкий момент, когда у тебя в команде есть человек занимающийся геймификацией для сотрудников. И идеи действительно хорошие
Гоша вещает
Тот неловкий момент, когда у тебя в команде есть человек занимающийся геймификацией для сотрудников. И идеи действительно хорошие
"
- Я, на самом деле, сам думал, что для некоторых направлений вообще подойдут мотивашки в стиле дуолинго)
- Убийство семьи?
- Все будет ок, если семью тоже получится вовлечь)
"