Марк Цукерберг написал открытое письмо со своим видением будущего ИИ
Оно небольшое, полностью почитать можно тут. Мы собрали основные цитаты:
Оно небольшое, полностью почитать можно тут. Мы собрали основные цитаты:
В некоторых отношениях эра ИИ будет абсолютно новой для человечества, но в других станет просто продолжением исторических тенденций. Еще 200 лет назад 90% людей были фермерами. Прогресс постепенно дает нам возможность концентрироваться меньше на выживании и больше на том, чем мы действительно хотим заниматься.
В Meta мы считаем, что
нужно дать суперинтеллект в руки каждому
. Это отличает нас от других компаний, которые считают, что суперинтеллект должен централизовано автоматизировать работу.
Люди, преследующие свои индивидуальные устремления, – это именно то, как мы всегда добивались прогресса
, расширяя процветание, науку, здоровье и культуру.
Если тенденция сохранится, то личные девайсы, например очки, с суперинтеллектом, который знает вас идеально, станут нашими основными вычислительными устройствами. Так или иначе,
оставшаяся часть десятилетия станет решающим периодом для определения пути, по которому пойдет человечество
.
1🔥157😁44❤37👍23 22🤨9🤯7🕊5 2⚡1❤🔥1
Data Secrets
Илон Маск заявил, что в xAI и SpaceX нет рисерчеров – а есть только инженеры Термин «рисерчер» он назвал чопорным и малоответственным, и сказал, что это пережиток академической среды. Он утверждает, что рисерчеры в xAI не нужны, потому что у него работают…
Ян Лекун вступился за термин «рисерчер», который Маск вчера назвал устаревшим, чопорным и малоответственным
Берем попкорн и ждем ответку от Маска
Пост Лекуна
Существует разница между исследованием и инженерией в (1) способе действия, (2) методологии, (3) открытости, (4) критериях оценки.
Исследование использует научную методологию для открытия новых принципов, демонстрации того, что они могут работать на практике, анализа их преимуществ и ограничений, а также взаимодействия с более широким исследовательским сообществом для критики, проверки, воспроизводимости, сравнения и улучшения.
Критерии — концептуальная простота, теоретическая красота/объяснимость, явное превосходство над предыдущими работами по признанным метрикам. Это относится как к академическим исследованиям, так и к исследованиям в индустрии.
Инженерия интегрирует методы, часто разработанные в рамках исследовательского подхода, для создания работающих систем. Подход — использовать первый набор методов, который достаточно хорошо работает для задачи. Обычно это включает множество подгонки, настройки, тонкой доводки и временами — временных решений, чтобы добиться нужной производительности на реальной задаче. Насколько метод абсолютно лучший — менее важно, чем то, насколько он хорош для текущей задачи.
Исследователей оценивают в основном по интеллектуальному влиянию. Оценка исследований — сложная задача, поскольку влияние может проявиться через годы (иногда десятилетия) после выполнения работы. Поэтому часто приходится полагаться на коллективное мнение исследовательского сообщества через косвенные показатели, такие как публикации, цитирования, приглашённые доклады, награды и т. д. Вот почему исследования должны публиковаться.
Инженеров оценивают в основном по влиянию на продукт, иногда через косвенные метрики вроде ПР, количества строк кода и т. д.
Работая в инженерном режиме, исследователи получают стимул заниматься инкрементальной работой.
Если не делать различия между этими двумя видами деятельности, если оценивать исследователей и инженеров по одним и тем же критериям, есть риск уничтожить прорывные инновации. Настоящие прорывы требуют команд с долгим горизонтом планирования и минимальными ограничениями со стороны продуктовой разработки и менеджмента.
Исследовательские лаборатории прежних лет, оставившие неизгладимый след в научно-технологическом прогрессе (Bell Labs, IBM Research, Xerox PARC и др.), были исследовательскими подразделениями, чётко отделёнными от инженерных.
Берем попкорн и ждем ответку от Маска
Пост Лекуна
2🔥181 37 22❤16👍12 7💯4😁3🤔3
Про то, как работает ИИ в Авито
У TechIndsider вышло на редкость содержательное интервью о том, как бигтех на самом деле внедряет ИИ в сервисы. Главред поговорил с управляющим директором по ИИ в Авито Андреем Рыбинцевым (кстати, должность совсем новая, Рыбинцева назначили на нее недавно), и тот с занятными подробностями рассказал, как они используют ИИ.
Готовы поспорить, многие из нас пользуются Авито постоянно, но не подозревают, насколько глубоко там зашиты ИИ-алгоритмы. Так что вот вам просто несколько рандомных фактов из интервью:
➖ Каждый день алгоритмы Авито обрабатывают около 40 миллиардов кликов. "Уже после нескольких действий по косвенным признакам становится понятно, что интересно пользователю, что ему показывать, а что нет".
➖ 99% контента проверяется ИИ, и только 1% самых сложных вопросов передается модераторам. Если бы не алгоритмы, Авито пришлось бы нанять на 100 тыс. больше сотрудников.
➖ От 40 до 60% сделок на платформе (в зависимости от категории) проходит именно благодаря рекомендациям.
➖ Помимо этого LLM-ки помогают писать описания к объявлениям и отвечать на вопросы покупателей. И, кстати, монетизация в Авито – это тоже трансформеры.
А в будущем, как говорит Андрей, Авито вообще превратится в платформу, где между собой договариваются и торгуют не сами продавцы и покупатели, а их личные ИИ-ассистенты. Киберпанк?
Интервью полностью тут
У TechIndsider вышло на редкость содержательное интервью о том, как бигтех на самом деле внедряет ИИ в сервисы. Главред поговорил с управляющим директором по ИИ в Авито Андреем Рыбинцевым (кстати, должность совсем новая, Рыбинцева назначили на нее недавно), и тот с занятными подробностями рассказал, как они используют ИИ.
Готовы поспорить, многие из нас пользуются Авито постоянно, но не подозревают, насколько глубоко там зашиты ИИ-алгоритмы. Так что вот вам просто несколько рандомных фактов из интервью:
А в будущем, как говорит Андрей, Авито вообще превратится в платформу, где между собой договариваются и торгуют не сами продавцы и покупатели, а их личные ИИ-ассистенты. Киберпанк?
Интервью полностью тут
Please open Telegram to view this post
VIEW IN TELEGRAM
1🗿89🤨31😁18❤14👍9🔥5👻3 3
Пекин вызвал Дженсена Хуанга на ковер из-за проблем с безопасностью в чипах Nvidia
Сообщается, что какие-то американские эксперты (кто именно, не уточняется) нашли в видеокартах H20 некие уязвимости (какие именно, также не уточняется), из-за которых можно отслеживать местонахождение чипов и удаленно отключать их.
Никаких официальных доказательств такого функционала никто не предоставил и эксперты по кибербезу сразу сказали, что это какой-то бред. Но суть в том, что H20 производятся специально для китайского рынка и это чуть ли не единственные видеокарты, которые Вашингтон официально разрешает поставлять в КНР.
Так что, понятное дело, в Китае перепугались и вызвали представителей Nvidia в суд для выяснения обстоятельств. Дженсен Хуанг в ответ на обвинения заявил, что никаких бэкдоров в его продуктах нет и в помине, и что он, вообще-то, очень благоволит китайскому рынку.
И видимо, в суде ему поверили, потому что заказ на 300 000 видеокарт для Китая, который Nvidia недавно разместили на заводе TSMC, все еще в силе.
Теперь интересно, кем же были те самые «американские эксперты», которые так желают Nvidia процветания
Сообщается, что какие-то американские эксперты (кто именно, не уточняется) нашли в видеокартах H20 некие уязвимости (какие именно, также не уточняется), из-за которых можно отслеживать местонахождение чипов и удаленно отключать их.
Никаких официальных доказательств такого функционала никто не предоставил и эксперты по кибербезу сразу сказали, что это какой-то бред. Но суть в том, что H20 производятся специально для китайского рынка и это чуть ли не единственные видеокарты, которые Вашингтон официально разрешает поставлять в КНР.
Так что, понятное дело, в Китае перепугались и вызвали представителей Nvidia в суд для выяснения обстоятельств. Дженсен Хуанг в ответ на обвинения заявил, что никаких бэкдоров в его продуктах нет и в помине, и что он, вообще-то, очень благоволит китайскому рынку.
И видимо, в суде ему поверили, потому что заказ на 300 000 видеокарт для Китая, который Nvidia недавно разместили на заводе TSMC, все еще в силе.
Теперь интересно, кем же были те самые «американские эксперты», которые так желают Nvidia процветания
1🤔85😁45❤18 11 10 7🦄2 2👍1🕊1
О, Google уже проиндексировал страницу с документацией GPT-5
Пока она приводит к 404, но мы то с вами знаем, что индексация обычно не бывает случайной🤔
Пока она приводит к 404, но мы то с вами знаем, что индексация обычно не бывает случайной
Please open Telegram to view this post
VIEW IN TELEGRAM
3 199 64😁43🔥13 11 6👍4❤2
OpenAI избавились от фичи, которая делала чаты пользователей видимыми для поисковиков
На днях разразился настоящий скандал: выяснилось, что некоторые разговоры с ботом, которыми пользователи делились по ссылкам вроде как частным образом, становились видимыми для поисковых систем и начинали появляться в поисковой выдаче.
Как оказалось, это был не баг, а фича. Точнее, как пишет директор по инфобезу OpenAI, «краткосрочный эксперимент, призванный помочь пользователям находить полезные чаты».
То есть то, что некоторые зашаренные беседы были проиндексированы поисковиком – это не случайность: пользователи сами давали на это согласие, если во время создания ссылки на чат устанавливали флажок «Разрешить показывать в поиске».
Тем не менее, после шумихи в СМИ куча людей все равно остались недовольны и обвинили OpenAI. Потому что кто вообще читает эти флажки, правильно?
Короче, эксперимент не удался (хотя идея была неплохая, ведь в чатах часто действительно куча полезного контента). Теперь OpenAI откатывает фичу и начинает процесс по удалению из индексации всех уже провалившихся туда чатов.
Даже немного жаль.
На днях разразился настоящий скандал: выяснилось, что некоторые разговоры с ботом, которыми пользователи делились по ссылкам вроде как частным образом, становились видимыми для поисковых систем и начинали появляться в поисковой выдаче.
Как оказалось, это был не баг, а фича. Точнее, как пишет директор по инфобезу OpenAI, «краткосрочный эксперимент, призванный помочь пользователям находить полезные чаты».
То есть то, что некоторые зашаренные беседы были проиндексированы поисковиком – это не случайность: пользователи сами давали на это согласие, если во время создания ссылки на чат устанавливали флажок «Разрешить показывать в поиске».
Тем не менее, после шумихи в СМИ куча людей все равно остались недовольны и обвинили OpenAI. Потому что кто вообще читает эти флажки, правильно?
Короче, эксперимент не удался (хотя идея была неплохая, ведь в чатах часто действительно куча полезного контента). Теперь OpenAI откатывает фичу и начинает процесс по удалению из индексации всех уже провалившихся туда чатов.
Даже немного жаль.
1😁123 77👍23❤16 12 8🔥1😎1
This media is not supported in your browser
VIEW IN TELEGRAM
Google показали свою очередную Alpha<вставьте любое слово>
На этот раз это модель для точнейшего моделирования ландшафта Земли – AlphaEarth.
Звучит с первого взгляда игрушечно, но на самом деле это система с очень мощным практическим применением. Для чего это, по сути, нужно:
➖ Вообще карты Земли составляются так: берется куча снимков со спутников, замеров лидаров и прочих данных, а потом все это очень-очень долго обрабатывается и сопоставляется.
➖ «Очень долго», потому что половина из доступных снимков – это мусор. На некоторых облака, на некоторых ночь, а с разных устройств необходимые кадры вообще сняты под разными ракурсами и углами.
➖ В ручную процесс занимает просто уйму времени. А Google научили свою модель разбираться в этом всем автоматически и довольно быстро.
То есть AlphaEarth принимает на вход огромные массивы шумных данных, мэтчит их, достраивает картинки там, где есть белые пятна (сопоставляя разные снимки одной и той же местности), накладывает на это все данные с радаров и в итоге для каждого кусочка земли 10х10 метров на выход отдает готовый эмбеддинг.
А уже этот эмбеддинг можно дальше отдавать на вход любой ML-системе. Например, для предсказания погоды или отслеживания каких-то изменений. Внутри у такого вектора спрятана информация о рельефе, высоте, типе местности, сезонности, климате, влажности и тд и тп.
А если прикрутить такое к LLMке, то представьте, насколько более продвинутыми могут стать геологические рисерчи, путешествия, да и в целом ориентация в пространстве.
В общем, Google, как всегда, знают куда целятся
deepmind.google/discover/blog/alphaearth-foundations-helps-map-our-planet-in-unprecedented-detail/
На этот раз это модель для точнейшего моделирования ландшафта Земли – AlphaEarth.
Звучит с первого взгляда игрушечно, но на самом деле это система с очень мощным практическим применением. Для чего это, по сути, нужно:
То есть AlphaEarth принимает на вход огромные массивы шумных данных, мэтчит их, достраивает картинки там, где есть белые пятна (сопоставляя разные снимки одной и той же местности), накладывает на это все данные с радаров и в итоге для каждого кусочка земли 10х10 метров на выход отдает готовый эмбеддинг.
А уже этот эмбеддинг можно дальше отдавать на вход любой ML-системе. Например, для предсказания погоды или отслеживания каких-то изменений. Внутри у такого вектора спрятана информация о рельефе, высоте, типе местности, сезонности, климате, влажности и тд и тп.
А если прикрутить такое к LLMке, то представьте, насколько более продвинутыми могут стать геологические рисерчи, путешествия, да и в целом ориентация в пространстве.
В общем, Google, как всегда, знают куда целятся
deepmind.google/discover/blog/alphaearth-foundations-helps-map-our-planet-in-unprecedented-detail/
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥186❤55👏23🤯7👍5😁3🗿3
На Hugging Face заметили «случайный» слив весов открытой модели OpenAI
Висели они там всего пару минут, но шуму навели будь здоров. Что известно:
– Модели называются OSS-20B и OSS-120B
– Та, что побольше – MoE (4 эксперта на токен), запускается на Blackwell
– Контекст 128к токенов
Маркетинг в стиле OpenAI.
Вы, кстати, больше ждете опенсорс или GPT-5?
Висели они там всего пару минут, но шуму навели будь здоров. Что известно:
– Модели называются OSS-20B и OSS-120B
– Та, что побольше – MoE (4 эксперта на токен), запускается на Blackwell
– Контекст 128к токенов
Маркетинг в стиле OpenAI.
Вы, кстати, больше ждете опенсорс или GPT-5?
1😁125 31👍18❤6🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
13 и 14 сентября: E-CODE от Ozon Tech💙
Команда разработки ведущего e-com страны приглашает на одно из самых ярких событий в IT — E-CODE.
Два дня в атмосфере бигтеха: эксперты в технологиях, дата-инженерии и e-com, талантливые руководители и знаковые лидеры индустрии — такой нетворк важен каждому.
Приходите учиться, общаться и отдыхать с теми, кто говорит на вашем языке.
Москва, Loft Hall.
Зарегистрироваться⬅
Команда разработки ведущего e-com страны приглашает на одно из самых ярких событий в IT — E-CODE.
Два дня в атмосфере бигтеха: эксперты в технологиях, дата-инженерии и e-com, талантливые руководители и знаковые лидеры индустрии — такой нетворк важен каждому.
Приходите учиться, общаться и отдыхать с теми, кто говорит на вашем языке.
Москва, Loft Hall.
Зарегистрироваться
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍23🗿12😁5❤2🔥1🤯1
Модель Gemini 2.5 Deep Think стала доступна пользователям
Это та самая модель, которая выиграла золотую медаль на IMO. По метрикам:
– Почти 35% на Humanity’s Last Exam против 21.6 у Gemini 2.5 Pro и 20.3 у o3
– 87.6% на LiveCodeBench против 72 у o3
– 99.2% (почти абсолют!) на AIME 2025 против 89 у o3
Короче, достойно. По выделяемому компьюту ризонинга это конечно не те мощности, с которыми модель выиграла золото (конкретно эту версию выдали пока только небольшой группе математиков), но даже в этой конфигурации она нарешивает IMO на бронзу. Тоже неплохо.
Работает Deep Think благодаря «параллельному мышлению». То есть запускается несколько потоков ризонинга, в которых пробуются разные гипотезы, а затем лучшие результаты комбинируются в конечный ответ. Google пишут, что чтобы научить модель такой параллельности, они разработали «новые методы обучения с подкреплением».
Единственный нюанс: чтобы получить доступ к модельке, заплатить придется 250 долларов. Ее, к сожалению, завезли только в подписку Google AI Ultra.
Карта модели | Блогпост
Это та самая модель, которая выиграла золотую медаль на IMO. По метрикам:
– Почти 35% на Humanity’s Last Exam против 21.6 у Gemini 2.5 Pro и 20.3 у o3
– 87.6% на LiveCodeBench против 72 у o3
– 99.2% (почти абсолют!) на AIME 2025 против 89 у o3
Короче, достойно. По выделяемому компьюту ризонинга это конечно не те мощности, с которыми модель выиграла золото (конкретно эту версию выдали пока только небольшой группе математиков), но даже в этой конфигурации она нарешивает IMO на бронзу. Тоже неплохо.
Работает Deep Think благодаря «параллельному мышлению». То есть запускается несколько потоков ризонинга, в которых пробуются разные гипотезы, а затем лучшие результаты комбинируются в конечный ответ. Google пишут, что чтобы научить модель такой параллельности, они разработали «новые методы обучения с подкреплением».
Единственный нюанс: чтобы получить доступ к модельке, заплатить придется 250 долларов. Ее, к сожалению, завезли только в подписку Google AI Ultra.
Карта модели | Блогпост
1 90 35❤33🔥9 8👍3👀2🗿2
Anthropic отрубили OpenAI доступ к API своих моделей из-за «нарушения условий предоставления услуг»
Причина проста: по мнению Anthropic, OpenAI подключили API Claude Code к своим внутренним инструментам, чтобы их инженеры могли использовать его в процессе разработки GPT-5 для написания кода.
А это прямое нарушение условий: в соглашении об использовании прописано, что клиентам запрещено использовать сервис для «создания конкурирующего продукта или сервиса, в том числе для обучения конкурирующих моделей ИИ».
OpenAI же говорят, что использовали API только для бенчмаркинга и оценок безопасности (чтобы сравнивать со своими новыми моделями). А это уже стандарт индустрии, и так делать, естественно, никто не запрещает.
Нам показалось, или обстановка накаляется?🍿
Причина проста: по мнению Anthropic, OpenAI подключили API Claude Code к своим внутренним инструментам, чтобы их инженеры могли использовать его в процессе разработки GPT-5 для написания кода.
А это прямое нарушение условий: в соглашении об использовании прописано, что клиентам запрещено использовать сервис для «создания конкурирующего продукта или сервиса, в том числе для обучения конкурирующих моделей ИИ».
OpenAI же говорят, что использовали API только для бенчмаркинга и оценок безопасности (чтобы сравнивать со своими новыми моделями). А это уже стандарт индустрии, и так делать, естественно, никто не запрещает.
Мы уважаем решение Anthropic закрыть нам доступ к API, но это разочаровывает, учитывая, что наш API остаётся им доступным, – сказала Ханна Вонг, директор по коммуникациям в OpenAI.
Нам показалось, или обстановка накаляется?
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍89😁80 55❤9 6🤯4
The Information выпустили интересную статью про то, с какими неприятностями столкнулись OpenAI, разрабатывая GPT-5
Она так и называется: «Inside OpenAI rocky path to GPT-5». Короче, как оказалось, модель далась стартапу ну очень нелегко. По порядку:
⚪️ В начале 2024 года стартап очень много времени и средств потратил на разработку модели Orion. Именно она изначально и должна была стать нашей GPT-5.
⚪️ Но OpenAI столкнулись сразу с несколькими проблемами: во-первых, после обучения GPT-4 у компании фактически закончились качественные данные. Во-вторых, методы RL при масштабировании начали вести себя нестабильно. В-третьих, отдача от увеличения мощностей начала резко снижаться, в обход классическим законам скейлинга.
⚪️ В общем, революции не случилось и Orion в итоге вышел под именем GPT-4.5.
⚪️ После этого некоторые проблемы OpenAI частично решили. Например, они разработали мощный внутренний верификатор, который оценивает корректность данных и ответов моделей. Теперь инструмент работает и в RL-пайплайнах, и в процессах генерации синтетики.
⚪️ Тем не менее, проблемы с масштабированием сохраняются. Дальнейшее обучение требует все больше вычислительных и человеческих ресурсов, косты растут, а отдача в ряде экспериментов падает.
Так что да, улучшения будут и они будут значительные, НО настолько радикальных различий, как между предыдущими поколениями моделей, ожидать не стоит. Эх😢
Она так и называется: «Inside OpenAI rocky path to GPT-5». Короче, как оказалось, модель далась стартапу ну очень нелегко. По порядку:
Так что да, улучшения будут и они будут значительные, НО настолько радикальных различий, как между предыдущими поколениями моделей, ожидать не стоит. Эх
Please open Telegram to view this post
VIEW IN TELEGRAM
1 116 47❤22 16😁9🔥4☃2👍1
Вот так новости: независимые аналитики опубликовали отчет, в котором показано, что около 29% ответов на вопросы по биологии и химии в бенчмарке «Humanity’s Last Exam» содержат ошибки и напрямую противоречат рецензированной научной литературе
Если все так, то это буквально катастрофа для репутации бенчмарка и создателей, потому что HLE уже довольно долго используется как золотой стандарт по вопросам уровня PhD.
Причем тест составлял не кто-нибудь, а международный консорциум экспертов из разных областей. Так почему же так могло произойти?
1. Когда эксперты проверяли ответы, на каждый отводилось не более 5 минут. То есть даже если ответ был спорным, или тема требовала более глубоко погружения, им все равно давалось не более пяти минут, чтобы принять решение.
2. Вопросы в целом формулировались так, чтобы ИИ не мог просто зазубрить ответы на них, поэтому в бенче часто встречаются задачки с подвохом или размытыми формулировками. А такие часто очень сложно верифицируемы. В общем, мудрили-мудрили и где-то перемудрили.
Хотелось бы сказать, что бенч просто требует небольшой доработки, но 30% – это прямо много. Тут уже нужно основательно переосмыслять процедуру.
Сам отчет -> www.futurehouse.org/research-announcements/hle-exam
Если все так, то это буквально катастрофа для репутации бенчмарка и создателей, потому что HLE уже довольно долго используется как золотой стандарт по вопросам уровня PhD.
Причем тест составлял не кто-нибудь, а международный консорциум экспертов из разных областей. Так почему же так могло произойти?
1. Когда эксперты проверяли ответы, на каждый отводилось не более 5 минут. То есть даже если ответ был спорным, или тема требовала более глубоко погружения, им все равно давалось не более пяти минут, чтобы принять решение.
2. Вопросы в целом формулировались так, чтобы ИИ не мог просто зазубрить ответы на них, поэтому в бенче часто встречаются задачки с подвохом или размытыми формулировками. А такие часто очень сложно верифицируемы. В общем, мудрили-мудрили и где-то перемудрили.
Хотелось бы сказать, что бенч просто требует небольшой доработки, но 30% – это прямо много. Тут уже нужно основательно переосмыслять процедуру.
Сам отчет -> www.futurehouse.org/research-announcements/hle-exam
1 92🤯34😁18❤11👍4🤨4☃3🔥1 1