Forwarded from AbstractDL
COCONUT: Учим LLM думать не словами, а эмбеддингами (by Meta)
С появлением моделей серии o1 от OpenAI интерес к "ризонингу" языковых моделей стал расти ещё быстрее. Давно было известно, что если попросить LLM поразмышлять шаг за шагом "вслух", то точность ответов повышается, это называется Chain-of-Thought (CoT). А вы сами-то пробовали с ходу умножать 10-значные числа? Я только в столбик умею "step-by-step" 😁
Так вот, постепенно появляются идеи, что человеческий язык не оптимален для размышлений (вспоминаем QuietSTAR), он их только ограничивает. Более того! Есть исследования, что и люди на самом-то деле не словами думают — языковой отдел в мозге практически не активен в моменты рассуждений.
Вот и авторы COCONUT предлагают цепочку мыслей генерировать не в виде текстовых токенов, а в виде эмбеддингов, которые рекуррентно скармливаются обратно в LLM. Это должно развязывать моделям руки и позволять думать в более абстрактных сущностях, а не конкретными токенами.
Обнаружилось, что у COCONUT появляется суперпозиция нескольких альтернативных логических цепочек, своего рода breadth-first-search внутри эмбеддингов. Это позволило моделям решать задачки на планирование и логику быстрее и точнее, чем при обычном текстовом CoT. Не на всех бенчмарках выросли метрики, но сама идея классная, лично я в масштабирование таких подходов верю больше, чем в рассуждения на обычном языке.
Но пока тут есть два серьёзных минуса:
1. Для файнтюнинга LLM в режиме COCONUT всё ещё нужны ground truth словесные цепочки рассуждений, которые потом дистиллируются в латенты постепенной заменой текстовых шагов на латентные.
2. Обучение жрёт много компьюта и памяти, т.к. по сути это рекуррентная модель, через которую нужно N раз пропустить градиенты насквозь.
P.S. Более подробный разбор можно почитать у Андрея Лукьяненко тут.
Статья, GitHub
С появлением моделей серии o1 от OpenAI интерес к "ризонингу" языковых моделей стал расти ещё быстрее. Давно было известно, что если попросить LLM поразмышлять шаг за шагом "вслух", то точность ответов повышается, это называется Chain-of-Thought (CoT). А вы сами-то пробовали с ходу умножать 10-значные числа? Я только в столбик умею "step-by-step" 😁
Так вот, постепенно появляются идеи, что человеческий язык не оптимален для размышлений (вспоминаем QuietSTAR), он их только ограничивает. Более того! Есть исследования, что и люди на самом-то деле не словами думают — языковой отдел в мозге практически не активен в моменты рассуждений.
Вот и авторы COCONUT предлагают цепочку мыслей генерировать не в виде текстовых токенов, а в виде эмбеддингов, которые рекуррентно скармливаются обратно в LLM. Это должно развязывать моделям руки и позволять думать в более абстрактных сущностях, а не конкретными токенами.
Обнаружилось, что у COCONUT появляется суперпозиция нескольких альтернативных логических цепочек, своего рода breadth-first-search внутри эмбеддингов. Это позволило моделям решать задачки на планирование и логику быстрее и точнее, чем при обычном текстовом CoT. Не на всех бенчмарках выросли метрики, но сама идея классная, лично я в масштабирование таких подходов верю больше, чем в рассуждения на обычном языке.
Но пока тут есть два серьёзных минуса:
1. Для файнтюнинга LLM в режиме COCONUT всё ещё нужны ground truth словесные цепочки рассуждений, которые потом дистиллируются в латенты постепенной заменой текстовых шагов на латентные.
2. Обучение жрёт много компьюта и памяти, т.к. по сути это рекуррентная модель, через которую нужно N раз пропустить градиенты насквозь.
P.S. Более подробный разбор можно почитать у Андрея Лукьяненко тут.
Статья, GitHub
⚡6✍3🔥3
Обновился фреймворк AutoGen от Microsoft
Microsoft выпустила версию 0.4 программного фреймворка для разработки автономных многоагентных систем.
Платформа предоставляет возможность создавать быстрые прототипы интерактивных и независимых групп агентов на базе GPT-4.
Из инструментов уже доступны веб-поиск, исполнение кода и файловые операции.
Позволяет организовать групповые чаты с разными типами агентов для решения общей задачи.
Есть среда для настройки процессов без кода.
#Microsoft #AutoGen #MultiAgent
-------
@tsingular
Microsoft выпустила версию 0.4 программного фреймворка для разработки автономных многоагентных систем.
Платформа предоставляет возможность создавать быстрые прототипы интерактивных и независимых групп агентов на базе GPT-4.
Из инструментов уже доступны веб-поиск, исполнение кода и файловые операции.
Позволяет организовать групповые чаты с разными типами агентов для решения общей задачи.
Есть среда для настройки процессов без кода.
#Microsoft #AutoGen #MultiAgent
-------
@tsingular
👍8
Китай объявил о планах построить гигантскую солнечную электростанцию в космосе!
Суть проекта: огромная солнечная станция будет собирать энергию на геостационарной орбите (36000 км над Землей) и отправлять её на Землю с помощью микроволн.
Главный конструктор китайских ракет Long March сравнивает проект с "Three Gorges Dam в космосе" (Гидроэлектростанция на Ян-Цзы, генерирующая 100 млрд кВт⋅ч в год).
По расчётам, за год станция соберет энергии больше, чем вырабатывают все нефтепроекты Земле 🤯
Строительство планируется с помощью транспортировки частей станции на орбиту на сверхтяжелой ракете Long March-9 (грузоподъемность ракеты — 150 тонн)
Почему это крутое решение:
В космосе солнечная энергия в 10 раз интенсивнее
Нет проблем с облачностью
Работает 24/7
Lockheed Martin, Northrop Grumman, ESA и JAXA также разрабатывают похожие проекты.
Собрать на орбите 100 млрд кВт⋅ч. Исключительно в мирных целях! 🛸⚡️
#Китай #LongMarch #SpacePower
-------
@tsingular
Суть проекта: огромная солнечная станция будет собирать энергию на геостационарной орбите (36000 км над Землей) и отправлять её на Землю с помощью микроволн.
Главный конструктор китайских ракет Long March сравнивает проект с "Three Gorges Dam в космосе" (Гидроэлектростанция на Ян-Цзы, генерирующая 100 млрд кВт⋅ч в год).
По расчётам, за год станция соберет энергии больше, чем вырабатывают все нефтепроекты Земле 🤯
Строительство планируется с помощью транспортировки частей станции на орбиту на сверхтяжелой ракете Long March-9 (грузоподъемность ракеты — 150 тонн)
Почему это крутое решение:
В космосе солнечная энергия в 10 раз интенсивнее
Нет проблем с облачностью
Работает 24/7
Lockheed Martin, Northrop Grumman, ESA и JAXA также разрабатывают похожие проекты.
Собрать на орбите 100 млрд кВт⋅ч. Исключительно в мирных целях! 🛸⚡️
#Китай #LongMarch #SpacePower
-------
@tsingular
🔥13🤔9👍5⚡2🗿1
Sakana.ai - Transformer²: революция в самоадаптации нейросетей
Sakana AI выпустили любопытный препринт про новый подход к дообучению языковых моделей.
Суть в том, чтобы научить модели самостоятельно перестраивать свои веса под разные задачи - примерно как осьминог меняет цвет под окружение.
Технически всё строится на SVD-разложении весовых матриц (считай, раскладываем "мозг" LLM на независимые компоненты) и обучении специальных z-векторов через RL.
Каждый z-вектор - это как бы эксперт по конкретной задаче, который говорит какие компоненты усилить, а какие притушить.
Три режима работы: по промпту, через классификатор и few-shot адаптация.
Результаты неплохие - на GSM8K и других бенчмарках (в математике, программировании и логических рассуждениях) метод работает лучше чем LoRA.
Но самое интересное, что эти z-векторы можно комбинировать, получая что-то вроде составных экспертов под новые задачи и даже переносить между разными архитектурами,- Llama → Mistral, например.
Полный текст можно найти на сайте Sakana AI. Там подробнее расписано про методологию и эксперименты.
Paper
Очень похоже на COCONUT тоже про мышление векторами.
#Transformer2 #Sakana #Китай
-------
@tsingular
Sakana AI выпустили любопытный препринт про новый подход к дообучению языковых моделей.
Суть в том, чтобы научить модели самостоятельно перестраивать свои веса под разные задачи - примерно как осьминог меняет цвет под окружение.
Технически всё строится на SVD-разложении весовых матриц (считай, раскладываем "мозг" LLM на независимые компоненты) и обучении специальных z-векторов через RL.
Каждый z-вектор - это как бы эксперт по конкретной задаче, который говорит какие компоненты усилить, а какие притушить.
Три режима работы: по промпту, через классификатор и few-shot адаптация.
Результаты неплохие - на GSM8K и других бенчмарках (в математике, программировании и логических рассуждениях) метод работает лучше чем LoRA.
Но самое интересное, что эти z-векторы можно комбинировать, получая что-то вроде составных экспертов под новые задачи и даже переносить между разными архитектурами,- Llama → Mistral, например.
Полный текст можно найти на сайте Sakana AI. Там подробнее расписано про методологию и эксперименты.
Paper
Очень похоже на COCONUT тоже про мышление векторами.
#Transformer2 #Sakana #Китай
-------
@tsingular
🔥4❤1
MVoT - Multimodal Visualization-of-Thought: Новый подход к рассуждениям ИИ-систем
Исследователи Microsoft Research представили Multimodal Visualization-of-Thought (MVoT) - новый метод рассуждений для мультимодальных языковых моделей, который позволяет ИИ "думать" одновременно словами и визуальными образами.
В отличие от существующих подходов, использующих только текстовые рассуждения (Chain-of-Thought), MVoT позволяет модели генерировать промежуточные визуализации своего хода мыслей.
Проект разработали и проверили на базе Chameleon-7B, и добились 20% прироста точности в сложных пространственных задачах.
Система использует сдвоенную токенизацию для текста и изображений, применяя механизм token discrepancy loss.
Успешно протестирована на задачах навигации в лабиринтах, установки оборудования и перемещения по сложным поверхностям.
Основные ограничения связаны с избыточной детализацией фона и высокими требованиями к вычислительным ресурсам.
Интересный вариант реализации внутреннего взора, нужно добавить еще размерности, грубо говоря, чтобы было не только сравнение плоских картинок, но 3Д объектов во времени и с изменением качеств объектов.
В общем так же как это сделано в эмбеддингах для текста.
#MVoT #Chameleon #MicrosoftResearch
———
@tsingular
Исследователи Microsoft Research представили Multimodal Visualization-of-Thought (MVoT) - новый метод рассуждений для мультимодальных языковых моделей, который позволяет ИИ "думать" одновременно словами и визуальными образами.
В отличие от существующих подходов, использующих только текстовые рассуждения (Chain-of-Thought), MVoT позволяет модели генерировать промежуточные визуализации своего хода мыслей.
Проект разработали и проверили на базе Chameleon-7B, и добились 20% прироста точности в сложных пространственных задачах.
Система использует сдвоенную токенизацию для текста и изображений, применяя механизм token discrepancy loss.
Успешно протестирована на задачах навигации в лабиринтах, установки оборудования и перемещения по сложным поверхностям.
Основные ограничения связаны с избыточной детализацией фона и высокими требованиями к вычислительным ресурсам.
Интересный вариант реализации внутреннего взора, нужно добавить еще размерности, грубо говоря, чтобы было не только сравнение плоских картинок, но 3Д объектов во времени и с изменением качеств объектов.
В общем так же как это сделано в эмбеддингах для текста.
#MVoT #Chameleon #MicrosoftResearch
———
@tsingular
👍5❤2✍2❤🔥1👨💻1
This media is not supported in your browser
VIEW IN TELEGRAM
Kokoro - интересная TTS модель, для генерации голоса из текста.
Демо
Бесплатная, открытая, очень качественная и быстрая, но русского не знает.
Но есть лайфхак :)
Написать ей запрос транслитом
сама модель
#Kokoro #TTS
———
@tsingular
Демо
Бесплатная, открытая, очень качественная и быстрая, но русского не знает.
Но есть лайфхак :)
Написать ей запрос транслитом
сама модель
#Kokoro #TTS
———
@tsingular
🔥9😁6
Microsoft vs Salesforce: битва AI-титанов
Занимательная перепалка между MS и SF разворачивается на тему агентов!
Марк Бениофф, CEO Salesforce, разразился критикой в адрес Microsoft Copilot, называя его "огромным разочарованием".
Бениофф заявил, что клиенты практически не используют Copilot, предпочитая ChatGPT
Microsoft обвинили в том, что они просто "переупаковали OpenAI и добавили в Excel" 😂
Внутренние источники из Microsoft подтверждают проблемы: один из сотрудников даже назвал ситуацию "групповой иллюзией"
Особенно забавно, что это происходит на фоне заявления Сатьи Наделлы о том, что традиционные SaaS-платформы (намек на Salesforce) скоро "рухнут в эпоху AI-агентов".
Бениофф в ответ не стал церемониться, сравнив Copilot с печально известным Microsoft Clippy (Скрепка из 2000х) 😅
Что действительно интересно – похоже, проблема глубже, чем просто корпоративные перепалки.
По данным Business Insider, даже после масштабного обновления Copilot в ноябре, сотрудники Microsoft остаются скептичными.
Поговаривают, что Copilot "не способен выполнить 75% того, что обещает Microsoft".
А тем временем Salesforce хвастается своим Agentforce, который якобы обрабатывает "пару триллионов AI-транзакций в неделю" и настолько впечатляет клиентов, что те называют его "колдовством" 🪄
Ну пока они будут разбираться Китайские агенты захватят поляну :)
#Microsoft #Salesforce #Copilot
———
@tsingular
Занимательная перепалка между MS и SF разворачивается на тему агентов!
Марк Бениофф, CEO Salesforce, разразился критикой в адрес Microsoft Copilot, называя его "огромным разочарованием".
Бениофф заявил, что клиенты практически не используют Copilot, предпочитая ChatGPT
Microsoft обвинили в том, что они просто "переупаковали OpenAI и добавили в Excel" 😂
Внутренние источники из Microsoft подтверждают проблемы: один из сотрудников даже назвал ситуацию "групповой иллюзией"
Особенно забавно, что это происходит на фоне заявления Сатьи Наделлы о том, что традиционные SaaS-платформы (намек на Salesforce) скоро "рухнут в эпоху AI-агентов".
Бениофф в ответ не стал церемониться, сравнив Copilot с печально известным Microsoft Clippy (Скрепка из 2000х) 😅
Что действительно интересно – похоже, проблема глубже, чем просто корпоративные перепалки.
По данным Business Insider, даже после масштабного обновления Copilot в ноябре, сотрудники Microsoft остаются скептичными.
Поговаривают, что Copilot "не способен выполнить 75% того, что обещает Microsoft".
А тем временем Salesforce хвастается своим Agentforce, который якобы обрабатывает "пару триллионов AI-транзакций в неделю" и настолько впечатляет клиентов, что те называют его "колдовством" 🪄
Ну пока они будут разбираться Китайские агенты захватят поляну :)
#Microsoft #Salesforce #Copilot
———
@tsingular
👍6😁3👻3
Hailuo Audio HD: новый генератор голоса на 17 языках с клонированием
MiniMax представил модель T2A-01-HD - передовую технологию синтеза естественной речи с впечатляющими возможностями.
Система позволяет создавать реалистичные голоса из 10-секундного сэмпла или выбрать из 300+ готовых вариантов.
Встроенный эмоциональный движок автоматически определяет и воспроизводит тональность речи.
Поддерживается 17 языков включая русский, с региональными акцентами и диалектами.
Профессиональные звуковые эффекты добавляют реалистичности: акустика помещений, телефонные фильтры.
Доступна тонкая настройка высоты тона, скорости и эмоциональной окраски каждой фразы.
В открытом виде для локального запуска пока нет, но можно использовать через API.
#Hailuo #MiniMax #TTS #Китай
------
@tsingular
MiniMax представил модель T2A-01-HD - передовую технологию синтеза естественной речи с впечатляющими возможностями.
Система позволяет создавать реалистичные голоса из 10-секундного сэмпла или выбрать из 300+ готовых вариантов.
Встроенный эмоциональный движок автоматически определяет и воспроизводит тональность речи.
Поддерживается 17 языков включая русский, с региональными акцентами и диалектами.
Профессиональные звуковые эффекты добавляют реалистичности: акустика помещений, телефонные фильтры.
Доступна тонкая настройка высоты тона, скорости и эмоциональной окраски каждой фразы.
В открытом виде для локального запуска пока нет, но можно использовать через API.
#Hailuo #MiniMax #TTS #Китай
------
@tsingular
🔥10👍4✍2
MatterGen: новый метод создания новых материалов с помощью ИИ
🔬 Microsoft Research выпустила MatterGen - это ИИ-инструмент для генерации новых материалов с заданными свойствами.
Раньше новые материалы искали перебором миллионов вариантов методом скрининга - долго и дорого.
MatterGen делает это иначе: генерирует материалы под заданные свойства.
Примерно как трансформеры это делают для картинок или текста, только для кристаллических структур!
В основе - диффузионная модель, заточенная под 3D-геометрию материалов.
Обучена на 608,000 стабильных материалах из баз Materials Project и Alexandria.
Реальные результаты:
Модель уже проверили в лаборатории!
Сгенерировали новый материал TaCr2O6 с заданной упругостью 200 GPa, синтезировали его, и... получили материал с 169 GPa.
Погрешность менее 20% - для начала очень неплохо!
🌟 Бонус: Microsoft выложила код MatterGen в открытый доступ.
Так что ждём волну новых материалов от исследователей по всему миру!
Интересно будет посмотреть, что они нагенерят.
Алхимики бы обзавидовались :)
#Microsoft #MatterGen #MaterialScience
———
@tsingular
🔬 Microsoft Research выпустила MatterGen - это ИИ-инструмент для генерации новых материалов с заданными свойствами.
Раньше новые материалы искали перебором миллионов вариантов методом скрининга - долго и дорого.
MatterGen делает это иначе: генерирует материалы под заданные свойства.
Примерно как трансформеры это делают для картинок или текста, только для кристаллических структур!
В основе - диффузионная модель, заточенная под 3D-геометрию материалов.
Обучена на 608,000 стабильных материалах из баз Materials Project и Alexandria.
Реальные результаты:
Модель уже проверили в лаборатории!
Сгенерировали новый материал TaCr2O6 с заданной упругостью 200 GPa, синтезировали его, и... получили материал с 169 GPa.
Погрешность менее 20% - для начала очень неплохо!
🌟 Бонус: Microsoft выложила код MatterGen в открытый доступ.
Так что ждём волну новых материалов от исследователей по всему миру!
Интересно будет посмотреть, что они нагенерят.
Алхимики бы обзавидовались :)
#Microsoft #MatterGen #MaterialScience
———
@tsingular
🔥11👍4🤯3
HuggingFace анонсировали интересный курс, который начнётся в феврале, но записаться на него можно уже сейчас.
На этом курсе вы:
Освоите основы: поймете, как агенты воспринимают, рассуждают и действуют в своей среде.
Попробуете фреймворки агентов:
создание агентов с помощью LangChain, LlamaIndex и smolagents.
Изучите реальные примеры: посмотрите, как агенты автоматизируют задачи, генерируют код и многое другое.
Получите сертификат: подтвердите свои навыки с помощью выпускного проекта и оценки.
Записаться тут
Записываемся. Я уже. :)
Будем хорошие оценки друг-другу ставить. Hopefully.
Курс на английском будет, скорее всего.
#HuggingFace #обучение #курсы
———
@tsingular
На этом курсе вы:
Освоите основы: поймете, как агенты воспринимают, рассуждают и действуют в своей среде.
Попробуете фреймворки агентов:
создание агентов с помощью LangChain, LlamaIndex и smolagents.
Изучите реальные примеры: посмотрите, как агенты автоматизируют задачи, генерируют код и многое другое.
Получите сертификат: подтвердите свои навыки с помощью выпускного проекта и оценки.
Записаться тут
Записываемся. Я уже. :)
Будем хорошие оценки друг-другу ставить. Hopefully.
Курс на английском будет, скорее всего.
#HuggingFace #обучение #курсы
———
@tsingular
👍5🔥4✍1👌1
Media is too big
VIEW IN TELEGRAM
Unitree G1 обновился и стал еще подвижнее и ловчее.
Освоил бег по пересечённой местности.
Кстати я кажется понял почему физика кажется неестественной местами. Скорее всего у него в центре масс гироскоп. Но это только предположение.
В Китае Новый Год только 29 января. Так что они под свой НГ еще, чую, много обновлений выкатят. Терпим :)
#Unitree #robots #Китай
———
@tsingular
Освоил бег по пересечённой местности.
Кстати я кажется понял почему физика кажется неестественной местами. Скорее всего у него в центре масс гироскоп. Но это только предположение.
В Китае Новый Год только 29 января. Так что они под свой НГ еще, чую, много обновлений выкатят. Терпим :)
#Unitree #robots #Китай
———
@tsingular
👍14🔥5👾3
Media is too big
VIEW IN TELEGRAM
В Krea.ai добавили перевод из картинки в 3D объект и дальше создание в реальном времени картинки по вашему промпту с этими 3D моделями в динамике.
Заходим по ссылке
https://www.krea.ai/apps/image/realtime
подгружаем фотку, нажимаем на картинке правой кнопкой и переводим её в 3Д.
Потом удаляем 2D картинку и вуаля, - ваша 3Д модель используется как контрол для генерации финального изображения.
Скорость мгновенная.
Объем бесплатный улетает со свистом, правда.
3-4 3Д генерации и он закончится, дальше за деньги.
#KreaAi #нейрорендер
———
@tsingular
Заходим по ссылке
https://www.krea.ai/apps/image/realtime
подгружаем фотку, нажимаем на картинке правой кнопкой и переводим её в 3Д.
Потом удаляем 2D картинку и вуаля, - ваша 3Д модель используется как контрол для генерации финального изображения.
Скорость мгновенная.
Объем бесплатный улетает со свистом, правда.
3-4 3Д генерации и он закончится, дальше за деньги.
#KreaAi #нейрорендер
———
@tsingular
👍7✍2🆒2🗿1
Эрик Шмидт, бывший генеральный директор Google, и физик Брайан Грин обсудили стремительно развивающуюся область искусственного интеллекта (ИИ).
Очень интересный вышел диалог.
Лучше конечно самому смотреть интервью целиком, но если не знаете английский, - вот тезисная сводка:
Компьютерные науки и масштабирование
- Компьютерные науки стали ведущей специальностью, обогнав физику
- Понимание масштаба дает беспрецедентные возможности
"Мы, компьютерщики, понимаем масштаб. И компьютерные науки меняют мир, потому что мы делаем вещи в масштабе, который раньше был немыслим"
Скорость разработки и сборка
- Новое поколение использует готовые компоненты вместо написания кода с нуля
- Хакатоны демонстрируют радикальное ускорение разработки
"То, что раньше заняло бы у команды Google месяц работы 5-10 человек, сейчас делается за день"
Потенциал и масштаб развития ИИ
- ИИ будет в 10000 раз мощнее благодаря улучшениям в разных областях
- Развитие невозможно остановить
"К моменту завершения эта система будет в 10 000 раз мощнее: в 10 раз больше данных, в 10 раз лучше программное обеспечение, в 10 раз лучше математика"
Персональные ИИ-помощники
- Каждый человек получит доступ к персональному ИИ-эксперту (полимату)
- Системы будут адаптироваться под специализацию пользователя
"Мой разум и мой эксперт будут связаны. Я не буду знать, что делать, пока не посоветуюсь со своим экспертом"
Образование и здравоохранение
- ИИ-репетиторы обеспечат персонализированное обучение
- Системы будут адаптироваться к индивидуальному стилю обучения
"ИИ-репетитор для любого человека в мире на любом уровне образования на его языке, бесплатно на его телефоне"
Безопасность и регулирование
- Необходимы промышленные системы с водяными знаками
- Важна аутентификация источников информации
"Мы должны создать промышленные системы с водяными знаками... использовать систему открытых ключей для аутентификации"
Рекурсивное самосовершенствование
- ИИ сможет самостоятельно учиться и развиваться
- Системы будут комбинировать знания недоступными людям способами
"В какой-то момент они научатся комбинировать эти знания способами, недоступными людям"
Квантовые вычисления
- Классические вычисления приближаются к физическим пределам
- Квантовые вычисления перспективны для специализированных задач
"Очевидно, что квантовые компьютеры будут крайне полезны в очень специализированной математике"
Книга Шмидта "Бытие" исследует влияние ИИ на общество, включая этические вопросы воссоздания образов умерших.
транскрипт в комментарии, может кто захочет почитать детально.
#EricSchmidt #interview
———
@tsingular
Очень интересный вышел диалог.
Лучше конечно самому смотреть интервью целиком, но если не знаете английский, - вот тезисная сводка:
Компьютерные науки и масштабирование
- Компьютерные науки стали ведущей специальностью, обогнав физику
- Понимание масштаба дает беспрецедентные возможности
"Мы, компьютерщики, понимаем масштаб. И компьютерные науки меняют мир, потому что мы делаем вещи в масштабе, который раньше был немыслим"
Скорость разработки и сборка
- Новое поколение использует готовые компоненты вместо написания кода с нуля
- Хакатоны демонстрируют радикальное ускорение разработки
"То, что раньше заняло бы у команды Google месяц работы 5-10 человек, сейчас делается за день"
Потенциал и масштаб развития ИИ
- ИИ будет в 10000 раз мощнее благодаря улучшениям в разных областях
- Развитие невозможно остановить
"К моменту завершения эта система будет в 10 000 раз мощнее: в 10 раз больше данных, в 10 раз лучше программное обеспечение, в 10 раз лучше математика"
Персональные ИИ-помощники
- Каждый человек получит доступ к персональному ИИ-эксперту (полимату)
- Системы будут адаптироваться под специализацию пользователя
"Мой разум и мой эксперт будут связаны. Я не буду знать, что делать, пока не посоветуюсь со своим экспертом"
Образование и здравоохранение
- ИИ-репетиторы обеспечат персонализированное обучение
- Системы будут адаптироваться к индивидуальному стилю обучения
"ИИ-репетитор для любого человека в мире на любом уровне образования на его языке, бесплатно на его телефоне"
Безопасность и регулирование
- Необходимы промышленные системы с водяными знаками
- Важна аутентификация источников информации
"Мы должны создать промышленные системы с водяными знаками... использовать систему открытых ключей для аутентификации"
Рекурсивное самосовершенствование
- ИИ сможет самостоятельно учиться и развиваться
- Системы будут комбинировать знания недоступными людям способами
"В какой-то момент они научатся комбинировать эти знания способами, недоступными людям"
Квантовые вычисления
- Классические вычисления приближаются к физическим пределам
- Квантовые вычисления перспективны для специализированных задач
"Очевидно, что квантовые компьютеры будут крайне полезны в очень специализированной математике"
Книга Шмидта "Бытие" исследует влияние ИИ на общество, включая этические вопросы воссоздания образов умерших.
транскрипт в комментарии, может кто захочет почитать детально.
#EricSchmidt #interview
———
@tsingular
🔥8🤯3👍2⚡1
PentAGI: AI-агент для пентестов
PentAGI,- полностью автономный AI-агент для проведения сложных тестов на проникновение.
🛠 Ключевые фишки:
- Работает в изолированном Docker-окружении
- Сам определяет следующий шаг и выполняет его
- Умеет гуглить свежую информацию через встроенный браузер
- Имеет собственный текстовый редактор прямо в интерфейсе
- Хранит историю команд в PostgreSQL
🧠 Как это работает
1. Вы ставите задачу
2. AI анализирует её и выбирает подход
3. Агент автоматически проводит тестирование
4. Вы наблюдаете за процессом в реальном времени
5. Получаете детальный отчет
🤖 Поддерживаемые AI-провайдеры:
OpenAI, Anthropic, DeepInfra, OpenRouter (любые модели).
📊 Мониторинг
Grafana, Loki для логов, ClickHouse, Jaeger для трейсинга, OpenTelemetry + VictoriaMetrics
Сайт проекта: https://pentagi.com/
GitHub: https://github.com/vxcontrol/pentagi
Разработка – PT
#PentAGI #AI #Cybersecurity #Pentest
———
@tsingular
PentAGI,- полностью автономный AI-агент для проведения сложных тестов на проникновение.
🛠 Ключевые фишки:
- Работает в изолированном Docker-окружении
- Сам определяет следующий шаг и выполняет его
- Умеет гуглить свежую информацию через встроенный браузер
- Имеет собственный текстовый редактор прямо в интерфейсе
- Хранит историю команд в PostgreSQL
🧠 Как это работает
1. Вы ставите задачу
2. AI анализирует её и выбирает подход
3. Агент автоматически проводит тестирование
4. Вы наблюдаете за процессом в реальном времени
5. Получаете детальный отчет
🤖 Поддерживаемые AI-провайдеры:
OpenAI, Anthropic, DeepInfra, OpenRouter (любые модели).
📊 Мониторинг
Grafana, Loki для логов, ClickHouse, Jaeger для трейсинга, OpenTelemetry + VictoriaMetrics
Сайт проекта: https://pentagi.com/
GitHub: https://github.com/vxcontrol/pentagi
Разработка – PT
#PentAGI #AI #Cybersecurity #Pentest
———
@tsingular
👍5🔥2
Media is too big
VIEW IN TELEGRAM
В Microsoft office завезли Copilot для всех.
Не знаю уж из-за того, что 20 января всё ближе или из-за того, что MS запустили бесплатный Копайлот для всех, но у меня он заработал без гео-ограничений в Экселе, Ворде и Powerpoint.
Под капотом GPT 4o, так что результат вполне норм.
Опробовал на PPT - за 1 короткий запрос получил гайд по созданию телеграм бота.
Гайд так себе, конечно, но как заготовка - сойдёт.
И на английском генерит, что тоже не очень.
Презу кину в комментарии.
Делитесь, - у вас тоже заработал? Или это только у меня такой глюк?
#Microsoft #Copilot
———
@tsingular
Не знаю уж из-за того, что 20 января всё ближе или из-за того, что MS запустили бесплатный Копайлот для всех, но у меня он заработал без гео-ограничений в Экселе, Ворде и Powerpoint.
Под капотом GPT 4o, так что результат вполне норм.
Опробовал на PPT - за 1 короткий запрос получил гайд по созданию телеграм бота.
Гайд так себе, конечно, но как заготовка - сойдёт.
И на английском генерит, что тоже не очень.
Презу кину в комментарии.
Делитесь, - у вас тоже заработал? Или это только у меня такой глюк?
#Microsoft #Copilot
———
@tsingular
🔥5🤔2
Media is too big
VIEW IN TELEGRAM
DeepMind выпустил MuJoCo Playground - тренажёр для роботов
Google DeepMind представил открытую библиотеку для ускоренного обучения роботизированных систем.
Платформа основана на MJX и обеспечивает тренировку за считанные минуты на единственном GPU.
- Установка в один клик через pip install playground
- Поддержка разных роботов: от четвероногих до человекоподобных
- Мгновенный перенос результатов из виртуальной среды в реальность без дополнительной адаптации.
- Работает как с состояниями, так и с "зрением" робота
Ключевые компоненты включают физический движок, пакетный рендеринг и тренировочные среды.
Интересный момент про GPU-ускорение через MJX - похоже, они серьезно поработали над производительностью. Это важно, потому что обычно симуляция роботов довольно "тяжелая".
Сайт
Github
Домашнее лего из роботов станет ещё функциональнее. Тут не только турель, тут и полноценного помощника можно будет собрать и обучить дома! 🤖
#DeepMind #MuJoCo #Robotics
-------
@tsingular
Google DeepMind представил открытую библиотеку для ускоренного обучения роботизированных систем.
Платформа основана на MJX и обеспечивает тренировку за считанные минуты на единственном GPU.
- Установка в один клик через pip install playground
- Поддержка разных роботов: от четвероногих до человекоподобных
- Мгновенный перенос результатов из виртуальной среды в реальность без дополнительной адаптации.
- Работает как с состояниями, так и с "зрением" робота
Ключевые компоненты включают физический движок, пакетный рендеринг и тренировочные среды.
Интересный момент про GPU-ускорение через MJX - похоже, они серьезно поработали над производительностью. Это важно, потому что обычно симуляция роботов довольно "тяжелая".
Сайт
Github
Домашнее лего из роботов станет ещё функциональнее. Тут не только турель, тут и полноценного помощника можно будет собрать и обучить дома! 🤖
#DeepMind #MuJoCo #Robotics
-------
@tsingular
1⚡4🆒3👾2
Forwarded from эйай ньюз
OpenAI помогает разрабатывать средства для продления жизни
Для этого компания кооперируется со стартапом Retro, заявленная цель которого - повысить среднюю продолжительность жизни на десять лет. Специально для стартапа была создана модель GPT-4b micro, натренированная на последовательностях белков множества биологических видов и данные об их взаимодействии.
Подход стартапа (в который Сэм Альтман инвестировал $180m) основывается на процессе превращения клеток кожи в стволовые, которые потом можно тривиально перепрограммировать в любые другие типы клеток в человеческом организме. Из-за этого свойства стволовые клетки очень ценятся и имеют кучу применений, но крайне дорогие, из-за чего не могут использоваться массово.
Существующий процесс получения стволовых клеток из клеток кожи крайне неэффективен - занимает несколько недель и может успешно перепрограммировать менее 1% клеток. Благодаря GPT-4b micro процесс вышло заметно улучшить - вышло создать более чем в 50 раз эффективные версии двух из четырёх необходимых для процесса белков. Насколько именно это улучшает процесс в целом - непонятно, но разница на картинке огромная.
@ai_newz
Для этого компания кооперируется со стартапом Retro, заявленная цель которого - повысить среднюю продолжительность жизни на десять лет. Специально для стартапа была создана модель GPT-4b micro, натренированная на последовательностях белков множества биологических видов и данные об их взаимодействии.
Подход стартапа (в который Сэм Альтман инвестировал $180m) основывается на процессе превращения клеток кожи в стволовые, которые потом можно тривиально перепрограммировать в любые другие типы клеток в человеческом организме. Из-за этого свойства стволовые клетки очень ценятся и имеют кучу применений, но крайне дорогие, из-за чего не могут использоваться массово.
Существующий процесс получения стволовых клеток из клеток кожи крайне неэффективен - занимает несколько недель и может успешно перепрограммировать менее 1% клеток. Благодаря GPT-4b micro процесс вышло заметно улучшить - вышло создать более чем в 50 раз эффективные версии двух из четырёх необходимых для процесса белков. Насколько именно это улучшает процесс в целом - непонятно, но разница на картинке огромная.
@ai_newz
🔥12✍5👍3
O3-mini уже совсем скоро.
Несколько недель осталось.
Да ещё и с API.
Запасаемся покорном.
#OpenAI #o3
------
@tsingular
Несколько недель осталось.
Да ещё и с API.
Запасаемся покорном.
#OpenAI #o3
------
@tsingular
👍9
🤖 На этой неделе наткнулся на две свежие работы про AI-агентов - давайте посмотрим, что интересного!
Google выпустили статью на Kagge:
В ней максимально детально разложили как строить агентов в реальных проектах на базе VertexAI
- Расписали три типа инструментов для агентов: Extensions (прямой доступ к API), Functions (клиентская логика) и Data Stores (для работы с данными)
- Показали архитектуру, как это всё собирается в Vertex AI
- Четко разделили, что должно работать на стороне клиента, а что на стороне агента
- Привели готовые паттерны для интеграции с внешними системами и детальные примеры кода
Из минусов:
- Всё заточено под их Vertex AI
- Мало про безопасность при работе с внешними API
И вышла работа вьетнамского автора Chip Huyen.
Она у себя в блоге привела статью из своей книги AI Engineering (2025)
Чип дала более глубокий, теоретический взгляд на агентов. Много интересных мыслей про архитектуру и проблемы.
Ключевые моменты:
- «Множественные ошибки: агенту часто нужно выполнить несколько шагов для задачи, и общая точность падает с каждым шагом. При точности 95% на шаг, после 10 шагов точность упадет до 60%»
- Подробно разобрала почему планирование - это сложно и даже спорит об этом с Яном ЛеКуном
- Детально описала разные виды ошибок агентов
Что классно:
- Глубокий разбор проблем с планированием
- Честный разговор про ограничения текущих подходов
- Хороший теоретический фундамент и примеры кода
Общий вывод 🎯
Работы отлично дополняют друг друга: Google показывает "как делать", Chip объясняет "почему так".
Особенно интересно, что они по-разному смотрят на планирование: Google просто решает это через orchestration layer, а Chip поднимает отчасти философский вопрос - а могут ли вообще LLM планировать, но приводит при этом полезные куски кода.
Для практиков я бы посоветовал начать с Google для быстрого старта, а потом углубиться в работу Chip для понимания подводных камней и ограничений.
PDF Гугла для удобства кину в комментарий. Книжка Чип в PDF гуглится, тоже можно найти.
#Agents #Google #ChipHuyen #обучение
———
@tsingular
Google выпустили статью на Kagge:
В ней максимально детально разложили как строить агентов в реальных проектах на базе VertexAI
- Расписали три типа инструментов для агентов: Extensions (прямой доступ к API), Functions (клиентская логика) и Data Stores (для работы с данными)
- Показали архитектуру, как это всё собирается в Vertex AI
- Четко разделили, что должно работать на стороне клиента, а что на стороне агента
- Привели готовые паттерны для интеграции с внешними системами и детальные примеры кода
Из минусов:
- Всё заточено под их Vertex AI
- Мало про безопасность при работе с внешними API
И вышла работа вьетнамского автора Chip Huyen.
Она у себя в блоге привела статью из своей книги AI Engineering (2025)
Чип дала более глубокий, теоретический взгляд на агентов. Много интересных мыслей про архитектуру и проблемы.
Ключевые моменты:
- «Множественные ошибки: агенту часто нужно выполнить несколько шагов для задачи, и общая точность падает с каждым шагом. При точности 95% на шаг, после 10 шагов точность упадет до 60%»
- Подробно разобрала почему планирование - это сложно и даже спорит об этом с Яном ЛеКуном
- Детально описала разные виды ошибок агентов
Что классно:
- Глубокий разбор проблем с планированием
- Честный разговор про ограничения текущих подходов
- Хороший теоретический фундамент и примеры кода
Общий вывод 🎯
Работы отлично дополняют друг друга: Google показывает "как делать", Chip объясняет "почему так".
Особенно интересно, что они по-разному смотрят на планирование: Google просто решает это через orchestration layer, а Chip поднимает отчасти философский вопрос - а могут ли вообще LLM планировать, но приводит при этом полезные куски кода.
Для практиков я бы посоветовал начать с Google для быстрого старта, а потом углубиться в работу Chip для понимания подводных камней и ограничений.
PDF Гугла для удобства кину в комментарий. Книжка Чип в PDF гуглится, тоже можно найти.
#Agents #Google #ChipHuyen #обучение
———
@tsingular
👍11✍4🔥1
Forwarded from Сиолошная
Paul Schrader, сценарист фильмов «Таксист» и «Бешеный бык» (за режиссёрством Martin «🖐😶🤚» Scorsese ), пишет в фейсбуке:
— Я только что осознал что AI умнее меня. У него лучше идеи, он предлагает более эффективные способы их осуществления. Это экзистенциальный момент, схожий с тем, как Kasparov чувствовал себя в 1997, когда понял, что DeepBlue обыграет его в шахматы
— (Что привело вас к этим мыслям?) Я спросил у ChatGPT идеи сценариев от Paul Schrader. Оно выдало результаты лучше, чем мои собственные идеи.
====
— Я только что отправил ChatGPT сценарий, написанный мной несколько лет назад, и спросил об улучшениях. Через 5 секунд я получил ответ с заметками на уровне или даже лучше, чем я получал от кинопродюсеров.
====
Фух, ну хорошо, что тут можно отмазаться, мол, сценарист слабенький, лишь номинировался на Оскар, а не выигрывал его, и что ему 78 лет, и он уже ничего не понимает😀
— Я только что осознал что AI умнее меня. У него лучше идеи, он предлагает более эффективные способы их осуществления. Это экзистенциальный момент, схожий с тем, как Kasparov чувствовал себя в 1997, когда понял, что DeepBlue обыграет его в шахматы
— (Что привело вас к этим мыслям?) Я спросил у ChatGPT идеи сценариев от Paul Schrader. Оно выдало результаты лучше, чем мои собственные идеи.
====
— Я только что отправил ChatGPT сценарий, написанный мной несколько лет назад, и спросил об улучшениях. Через 5 секунд я получил ответ с заметками на уровне или даже лучше, чем я получал от кинопродюсеров.
====
Фух, ну хорошо, что тут можно отмазаться, мол, сценарист слабенький, лишь номинировался на Оскар, а не выигрывал его, и что ему 78 лет, и он уже ничего не понимает
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁12👍1