Google продолжает эксперименты с reasoner моделями. Компания обновила свою Gemini Flash Thinking (доступна бесплатно в AI Studio) - она теперь умнее, имеет миллион токенов контекста и может выполнять код (нужно отдельно включать). Вообще раздражает, что в AI studio не всегда понятно, когда именно модель пользуется поиском или исполнением кода,
Моделька сейчас занимает первое место на чатбот арене, обгоняя o1, Sonnet 3.6 и другие модели, что доказывает бесполезность этой самой арены - у модели очень сильный "small model smell". Она уходит в думлупы, не знает многих вещей и в целом часто тупит. Но, хоть и от Gemini-Exp-1206 впечатления часто были приятнее, на кодинге с математикой Flash Thinking всё же показывает себя лучше (но слабее o1 и R1).
Что мне не нравится в поведении Google в последний год - концентрация на маленьких модельках. Сначала с радаров пропала Gemini Ultra, а теперь уже и Pro не так часто появляется. Выглядит это, честно говоря, странно - как будто бы команде дают только компьют на эксперименты, но не на скейлинг.
Flash Thinking, для маленькой модели, показывает себя прекрасно. Но всё же хочется посмотреть, насколько хорошей будет Gemini Pro/Ultra Thinking. И, учитывая тот факт, что дистилляция из большей модели, работает намного лучше чем RL напрямую на маленькой модели, насколько похорошеет Flash от дистилляции из моделей побольше.
@ai_newz
_______
Источник | #ai_newz
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
Моделька сейчас занимает первое место на чатбот арене, обгоняя o1, Sonnet 3.6 и другие модели, что доказывает бесполезность этой самой арены - у модели очень сильный "small model smell". Она уходит в думлупы, не знает многих вещей и в целом часто тупит. Но, хоть и от Gemini-Exp-1206 впечатления часто были приятнее, на кодинге с математикой Flash Thinking всё же показывает себя лучше (но слабее o1 и R1).
Что мне не нравится в поведении Google в последний год - концентрация на маленьких модельках. Сначала с радаров пропала Gemini Ultra, а теперь уже и Pro не так часто появляется. Выглядит это, честно говоря, странно - как будто бы команде дают только компьют на эксперименты, но не на скейлинг.
Flash Thinking, для маленькой модели, показывает себя прекрасно. Но всё же хочется посмотреть, насколько хорошей будет Gemini Pro/Ultra Thinking. И, учитывая тот факт, что дистилляция из большей модели, работает намного лучше чем RL напрямую на маленькой модели, насколько похорошеет Flash от дистилляции из моделей побольше.
@ai_newz
_______
Источник | #ai_newz
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
Telegram
эйай ньюз
Google продолжает эксперименты с reasoner моделями. Компания обновила свою Gemini Flash Thinking (доступна бесплатно в AI Studio) - она теперь умнее, имеет миллион токенов контекста и может выполнять код (нужно отдельно включать). Вообще раздражает, что в…
Пока DeepSeek лагает под нагрузкой, давайте поговорим про Qwen
У компании за последние пару дней было несколько релизов, но я подождал китайского нового года и собрал всё
➖ Qwen 2.5-VL - обновлённая визуальная модель в размерах 3B, 7B и 72B. Из интересностей - возможность парсить документы в HTML и базовый компьютер юз - до клода и оператора далековато (модель попадает в лупы даже на официальных демо, правда выбирается из них).
➖ Компания сильно обновила свой чат интерфейс, там есть теперь генерация картинок с видео и поиск по интернету.
➖ Релизнули Qwen 2.5-1M - 7B и 14B модели с миллионом токенов контекста, непонятно как их sparse attention влият на качество. Много тестов пока нет - все играются с R1 и на Qwen внимания не обращают.
Веса Qwen-2.5-VL
Веса Qwen-2.5-1M
chat.qwenlm.ai
Источник: https://t.iss.one/ai_newz/3644
________________________
ДипСик, который рвет инфопространство, роняет акции Нвидия, вызывает панические атаки в Метачке, взял и бахнул генератор картинок!!
Не диффузия - Janus-Pro - это новая авторегрессионная модель, унифицированная MLLM которая разделяет visual encoding for multimodal understanding and generation.
Janus-Pro построен на базе DeepSeek-LLM-1.5b-base/DeepSeek-LLM-7b-base.
Идем тестировать, это все OPEN SOURCE!!!
huggingface.co
https://github.com/deepseek-ai/Janus
Источник: https://t.iss.one/cgevent/10937
_________________________
Perplexity добавили Reasoning в Pro Search
Поддерживается как R1 так и o1, бесплатным пользователям дают 3 поиска в день с R1, обещают постепенно повышать лимиты.
R1 у них хостится самостоятельно, на европейских и американских серверах, так что проблемы с перегрузкой DeepSeek (которые из-за повышенного спроса закрыли регистрацию) их не затронут.
Я как раз преданный подписчик Perplexity. Нравится, что там легко можно переключаться между моделями.
perplexity.ai
_______
Источник | #ai_newz
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
У компании за последние пару дней было несколько релизов, но я подождал китайского нового года и собрал всё
➖ Qwen 2.5-VL - обновлённая визуальная модель в размерах 3B, 7B и 72B. Из интересностей - возможность парсить документы в HTML и базовый компьютер юз - до клода и оператора далековато (модель попадает в лупы даже на официальных демо, правда выбирается из них).
➖ Компания сильно обновила свой чат интерфейс, там есть теперь генерация картинок с видео и поиск по интернету.
➖ Релизнули Qwen 2.5-1M - 7B и 14B модели с миллионом токенов контекста, непонятно как их sparse attention влият на качество. Много тестов пока нет - все играются с R1 и на Qwen внимания не обращают.
Веса Qwen-2.5-VL
Веса Qwen-2.5-1M
chat.qwenlm.ai
Источник: https://t.iss.one/ai_newz/3644
________________________
ДипСик, который рвет инфопространство, роняет акции Нвидия, вызывает панические атаки в Метачке, взял и бахнул генератор картинок!!
Не диффузия - Janus-Pro - это новая авторегрессионная модель, унифицированная MLLM которая разделяет visual encoding for multimodal understanding and generation.
Janus-Pro построен на базе DeepSeek-LLM-1.5b-base/DeepSeek-LLM-7b-base.
Идем тестировать, это все OPEN SOURCE!!!
huggingface.co
https://github.com/deepseek-ai/Janus
Источник: https://t.iss.one/cgevent/10937
_________________________
Perplexity добавили Reasoning в Pro Search
Поддерживается как R1 так и o1, бесплатным пользователям дают 3 поиска в день с R1, обещают постепенно повышать лимиты.
R1 у них хостится самостоятельно, на европейских и американских серверах, так что проблемы с перегрузкой DeepSeek (которые из-за повышенного спроса закрыли регистрацию) их не затронут.
Я как раз преданный подписчик Perplexity. Нравится, что там легко можно переключаться между моделями.
perplexity.ai
_______
Источник | #ai_newz
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
huggingface.co
Qwen2.5-VL - a Qwen Collection
Vision-language model series based on Qwen2.5
🖱 Режим глубоких рассуждений в Perplexity
Кто не знает о Perplexity - срочно это исправлять, вот посты про эту нейросеть и, а заодно и про новый поисковик и его сравнение с ChatGPT, и какую подписку за 20$ выбрать: Perplexity или ChatGPT
Вслед за 📱 ChatGPT, Perplexity выкатили Deep Research - для более осмысленных ответов. Думает прилично - у меня заняло 4 минуты на одну из задач, на другую 2 минуты. Бесплатно можно делать 5 запросов, читай исследований, в день. Против 10 запросов в месяц в режиме Deep Research в ChatGPT, причем платно за 20$/месяц. А с подпиской Pro в Perplexity за $20 вообще безлимит.
🌸 Я протестила Perplexity Deep Research на двух разных задачах, результаты моете посмотреть в видео. Скажу вкратце, мне понравилось, структурно и четко.
Как работает 🔡
🌸 Исследование с рассуждением - в режиме глубокого исследования Perplexity ищет, читает документы и рассуждает о том, что делать дальше. По мере того, как Perplexity узнает больше о предмете исследования, нейросеть может усовершенствовать свой план исследования. В принципе как и человек, по мере того, как узнает больше нюансов, начинает все лучше и лучше разбираться в теме, и совершенствуется на протяжении всего учебного процесса.
🌸 Составление отчета. После того как исходные материалы полностью изучены, агент обобщает все результаты исследования в четкий и полный отчет.
🌸 Экспорт и публикация. Затем вы можете экспортировать итоговый отчет в PDF-файл или документ, либо преобразовать его в Perplexity Page и поделиться им с коллегами или др
Что крутого 🔡
🔴 Заявлено, что при анализе информации задействует до 100 источников. По факту на мой запрос “расскажи, что я должна знать о том, как делаются reels на миллионы просмотров-инструменты, тренды, сервисы?”, Perplexity задействовал 101 ресурс! Тогда как ChatGPT задействует в 5 раз меньше источников и сайтов.
🟡 Готовый доклад, исследование, анализ можно экспортировать в формате PDF. Я попросила проанализировать, как менялся курс доллара к рублю с 1924 года, и какие события к тому привели - за 2 минуты получила готовое исследование, которое экспортировалось в PDF на 4 листах
🟣 93,9% правильных ответов в SimpleQA, который определяет фактическую точность ответов
🔴 Для работы не нужен телепорт, работать можно и на сайте, и в приложении
_______
Источник | #NeuralProfit
__________________________
Бесплатный Deep Research от Perplexity
Без подписки дают 5 запросов в день, подписчикам - 500 запросов в день. На Humanity's Last Exam, Deep Research от Perplexity набирает 21,1%. Это хуже результатов OpenAI, но в разы лучше всех остальных конкурентов.
Хороший повод для OpenAI дать доступ к Deep Research подписчикам Plus.
perplexity.ai
_______
Источник | #ai_newz
Кто не знает о Perplexity - срочно это исправлять, вот посты про эту нейросеть и, а заодно и про новый поисковик и его сравнение с ChatGPT, и какую подписку за 20$ выбрать: Perplexity или ChatGPT
Вслед за 📱 ChatGPT, Perplexity выкатили Deep Research - для более осмысленных ответов. Думает прилично - у меня заняло 4 минуты на одну из задач, на другую 2 минуты. Бесплатно можно делать 5 запросов, читай исследований, в день. Против 10 запросов в месяц в режиме Deep Research в ChatGPT, причем платно за 20$/месяц. А с подпиской Pro в Perplexity за $20 вообще безлимит.
🌸 Я протестила Perplexity Deep Research на двух разных задачах, результаты моете посмотреть в видео. Скажу вкратце, мне понравилось, структурно и четко.
Как работает 🔡
🌸 Исследование с рассуждением - в режиме глубокого исследования Perplexity ищет, читает документы и рассуждает о том, что делать дальше. По мере того, как Perplexity узнает больше о предмете исследования, нейросеть может усовершенствовать свой план исследования. В принципе как и человек, по мере того, как узнает больше нюансов, начинает все лучше и лучше разбираться в теме, и совершенствуется на протяжении всего учебного процесса.
🌸 Составление отчета. После того как исходные материалы полностью изучены, агент обобщает все результаты исследования в четкий и полный отчет.
🌸 Экспорт и публикация. Затем вы можете экспортировать итоговый отчет в PDF-файл или документ, либо преобразовать его в Perplexity Page и поделиться им с коллегами или др
Что крутого 🔡
🔴 Заявлено, что при анализе информации задействует до 100 источников. По факту на мой запрос “расскажи, что я должна знать о том, как делаются reels на миллионы просмотров-инструменты, тренды, сервисы?”, Perplexity задействовал 101 ресурс! Тогда как ChatGPT задействует в 5 раз меньше источников и сайтов.
🟡 Готовый доклад, исследование, анализ можно экспортировать в формате PDF. Я попросила проанализировать, как менялся курс доллара к рублю с 1924 года, и какие события к тому привели - за 2 минуты получила готовое исследование, которое экспортировалось в PDF на 4 листах
🟣 93,9% правильных ответов в SimpleQA, который определяет фактическую точность ответов
🔴 Для работы не нужен телепорт, работать можно и на сайте, и в приложении
_______
Источник | #NeuralProfit
__________________________
Бесплатный Deep Research от Perplexity
Без подписки дают 5 запросов в день, подписчикам - 500 запросов в день. На Humanity's Last Exam, Deep Research от Perplexity набирает 21,1%. Это хуже результатов OpenAI, но в разы лучше всех остальных конкурентов.
Хороший повод для OpenAI дать доступ к Deep Research подписчикам Plus.
perplexity.ai
_______
Источник | #ai_newz
Telegram
НейроProfit | Соня Pro Ai
🖱 Режим глубоких рассуждений в Perplexity
Кто не знает о Perplexity - срочно это исправлять, вот посты про эту нейросеть и, а заодно и про новый поисковик и его сравнение с ChatGPT, и какую подписку за 20$ выбрать: Perplexity или ChatGPT
Вслед за 📱 ChatGPT…
Кто не знает о Perplexity - срочно это исправлять, вот посты про эту нейросеть и, а заодно и про новый поисковик и его сравнение с ChatGPT, и какую подписку за 20$ выбрать: Perplexity или ChatGPT
Вслед за 📱 ChatGPT…
Alibaba Wan 2.1 - новая SOTA опенсорс видео модель
Похоже, это та самая загадочная модель которая уже месяц доступна в Qwen Chat. На лидерборде VBench она занимает первое место, но там нету нескольких сильных конкурентов, вроде Veo 3 от гугла. Больше бенчей никаких нету, так что ждём полноценного техрепорта и, тем временем, вайбчекаем модель по генерациям). По ним, к примеру, видно что модель очень хорошо генерирует текст, как на английском, так и на китайском, с чем другие модели справляются куда хуже.
Идёт в двух размерах — 1.3B и 14B и в нескольких разных вариантах для разных разрешений (поддерживаются 480p и 720p). Маленькой 1.3B модели нужно всего 8,2 гигабайта VRAM для запуска, а на генерацию видео уходит всего 4 минуты на 4090.
Большая моделька потребляет заметно больше — вплоть до 77 гигабайт. Но модели совсем не оптимизированные (замеры по памяти делали с fp32 моделями), так что есть много простора для оптимизации. Посмотрите на тот же Hunyuan, который при ~таком же количестве параметров неплохо запускается на консьюмерских видяхах. Умельцы за пару недель ещё оптимизируют эти модели, чтобы запускалось на каждом холодильнике.
Веса
Код
wanxai.com
@ai_newz
_______
Источник | #ai_newz
Похоже, это та самая загадочная модель которая уже месяц доступна в Qwen Chat. На лидерборде VBench она занимает первое место, но там нету нескольких сильных конкурентов, вроде Veo 3 от гугла. Больше бенчей никаких нету, так что ждём полноценного техрепорта и, тем временем, вайбчекаем модель по генерациям). По ним, к примеру, видно что модель очень хорошо генерирует текст, как на английском, так и на китайском, с чем другие модели справляются куда хуже.
Идёт в двух размерах — 1.3B и 14B и в нескольких разных вариантах для разных разрешений (поддерживаются 480p и 720p). Маленькой 1.3B модели нужно всего 8,2 гигабайта VRAM для запуска, а на генерацию видео уходит всего 4 минуты на 4090.
Большая моделька потребляет заметно больше — вплоть до 77 гигабайт. Но модели совсем не оптимизированные (замеры по памяти делали с fp32 моделями), так что есть много простора для оптимизации. Посмотрите на тот же Hunyuan, который при ~таком же количестве параметров неплохо запускается на консьюмерских видяхах. Умельцы за пару недель ещё оптимизируют эти модели, чтобы запускалось на каждом холодильнике.
Веса
Код
wanxai.com
@ai_newz
_______
Источник | #ai_newz
Telegram
эйай ньюз
Alibaba Wan 2.1 - новая SOTA опенсорс видео модель
Скорее всего это та самая загадочная модель, которая уже месяц доступна в Qwen Chat. На лидерборде VBench она занимает первое место, но там нет нескольких сильных конкурентов, вроде Veo 2 от гугла. Больше…
Скорее всего это та самая загадочная модель, которая уже месяц доступна в Qwen Chat. На лидерборде VBench она занимает первое место, но там нет нескольких сильных конкурентов, вроде Veo 2 от гугла. Больше…
Сейчас все вычисления производятся на серверах и ваш лаптоп служит вам только для того чтобы подключиться к машине с по ssh, локально почти никто ничего уже не запускает. Вот и тулы для программистов переезжают в клауд. Нактнулся на такую штуковину – SourceCraft. Это новая платформа для командной разработки от Yandex B2B Tech. Она поддерживает полный цикл разработки от постановки задачи до деплоя в облаке. Там много приблуд, которые спасают от рутины, например – быстрая навигация по коду, гибкая система CI/CD и др.
А самое главное — это встроенный редактор кода прямо в браузере, который позволяет легкую навигацию по всей кодбазе, что сильно выделяет SourceCraft на фоне конкурентов. В редактор встроен Code Assistant — AI-ассистент понимающий более 30 языков программирования. Ассистент доступен и как отдельный плагин для VSCode и IDE JetBrains, поэтому ломать привычки не придётся.
Для тех, кто держит код строго на своих серверах, в будущем обещают on-premise версию. Судя по отзывам первых пользователей, инструмент действительно стоящий — за полгода внутренние метрики удовлетворённости пользователя выросли более чем на 30%.
_______
Источник | #ai_newz
———
помните что облако это просто чужой компьютер...
———
#хроникицифровизации
_______
Источник | #F_S_C_P
@F_S_C_P
⚙️ Разработка ботов Telegram от 5000 руб
А самое главное — это встроенный редактор кода прямо в браузере, который позволяет легкую навигацию по всей кодбазе, что сильно выделяет SourceCraft на фоне конкурентов. В редактор встроен Code Assistant — AI-ассистент понимающий более 30 языков программирования. Ассистент доступен и как отдельный плагин для VSCode и IDE JetBrains, поэтому ломать привычки не придётся.
Для тех, кто держит код строго на своих серверах, в будущем обещают on-premise версию. Судя по отзывам первых пользователей, инструмент действительно стоящий — за полгода внутренние метрики удовлетворённости пользователя выросли более чем на 30%.
_______
Источник | #ai_newz
———
помните что облако это просто чужой компьютер...
———
#хроникицифровизации
_______
Источник | #F_S_C_P
@F_S_C_P
⚙️ Разработка ботов Telegram от 5000 руб
Telegram
эйай ньюз
Сейчас все вычисления производятся на серверах и ваш лаптоп служит вам только для того чтобы подключиться к машине с по ssh, локально почти никто ничего уже не запускает. Вот и тулы для программистов переезжают в клауд. Нактнулся на такую штуковину – SourceCraft.…
«Сильнейшая нейросетевая модель на русском языке» — так Сбер позиционирует свой новый GigaChat 2.0 в версии MAX. Сегодня в релиз также вышли облегчённые версии Pro и Lite, по производительности они заявлены на уровне MAX и Pro прошлого поколения.
GigaChat 2.0 MAX занял первое место по данным бенчмарка MERA для русского языка. По результатам тестов формата MMLU (RU / EN) модель находится на одном уровне с DeepSeek-V3, Qwen2.5 (версия Qwen-2.5-75b), GPT4o и LLaMA 70B, а где-то их даже превосходит.
В Сбере сообщили, что теперь модели обрабатывают в четыре раза больше контекста, в два раза точнее следуют инструкциям пользователя и на 25% лучше отвечают на вопросы.
✔️ Ещё один интересный акцент — на агентский потенциал моделей. Для разработки агентов на Python и JS на базе GigaChat 2.0 можно использовать популярный SDK LangChain, с которым линейка полностью совместима. Пакеты совместимости — в публичном репозитории GigaChain.
Прошлись по модели MAX с нашими стандартными вопросами: сколько понедельников / суббот было в один из месяцев, сколько нулей в полумиллионе и букв r в слове strawberry — задачи, с которыми семейство YandexGPT 4 справиться не смогло (хотя в версии 5 Pro таких проблем с календарём и числами уже нет)
Каков результат? Модель Сбера не путается в нулях, но вот справиться с календарём и буквами GigaChat 2.0 до конца не может. При вопросе о субботах в ноябре 2024 года он почему-то думает, что месяц начался со среды, а не в пятницу.
При изначально ошибочной предпосылке дальнейшая логика с подсчётами дней не помогает. А что касается букв... Как мы помним, это болезнь архитектуры и деления слов на токены. Хотя вот ChatGPT с активированным «Обоснуй» с подсчётом букв и календарём сейчас всё же справляется.
Протестировать новые модели уже может любой желающий. Для этого достаточно зарегистрироваться на платформе Studio, создать новый проект с GigaChat API и перейти в режим Playground. Развлекайтесь!
_______
Источник | #anti_agi
_____________________________________
Опубликовали техрепорт о претрейне рускоязычных LLM T-lite и T-pro.
Вышел подробный технический отчет о процессе создания русскоязычных моделей T-lite и T-pro от Т-банка. Часто бывает, что команды скупо описывают свои методики обучения, особенно в части обработки данных, но тут ребята детально раскрыла весь процесс от выбора базовой модели и подбора датасетов, до финальных экспериментов. Вместо обучения с нуля они использовали взяли за основу модель Qwen2.5 (я до сих пор считаю ее одной из лучших моделей, чтобы повех тренить что-то свое) и продолжили претрейн на русском языке.
Претрейн происходил в две стадии — первая с бюджетом 100 миллиардов токенов и распределением 90% русского и 10% английского языка. Значительную часть датасета (25%) составил код, что согласуется с исследованиями о влиянии кодовых данных на способности рассуждения. Вторая стадия (40 миллиардов токенов) фокусировалась на высококачественных данных, включая инстракт датасеты. По заветам FineWeb-Edu, команда отфильтровала датасет по образовательной ценности (лишь 6% веб-контента получило высшие оценки). Обучались на 256 H100.
По результатам бенчей модели показали заметный прирост в русскоязычных задачах, особенно в направлениях ЕГЭ, RWSD и математических рассуждениях. О деталях посттрейна (SFT и alignment) оюбещают рассказать в следующем посте.
ТехРепорт на хабре
_______
Источник | #ai_newz
_____________________
@F_S_C_P
Стань спонсором!
GigaChat 2.0 MAX занял первое место по данным бенчмарка MERA для русского языка. По результатам тестов формата MMLU (RU / EN) модель находится на одном уровне с DeepSeek-V3, Qwen2.5 (версия Qwen-2.5-75b), GPT4o и LLaMA 70B, а где-то их даже превосходит.
В Сбере сообщили, что теперь модели обрабатывают в четыре раза больше контекста, в два раза точнее следуют инструкциям пользователя и на 25% лучше отвечают на вопросы.
✔️ Ещё один интересный акцент — на агентский потенциал моделей. Для разработки агентов на Python и JS на базе GigaChat 2.0 можно использовать популярный SDK LangChain, с которым линейка полностью совместима. Пакеты совместимости — в публичном репозитории GigaChain.
Прошлись по модели MAX с нашими стандартными вопросами: сколько понедельников / суббот было в один из месяцев, сколько нулей в полумиллионе и букв r в слове strawberry — задачи, с которыми семейство YandexGPT 4 справиться не смогло (хотя в версии 5 Pro таких проблем с календарём и числами уже нет)
Каков результат? Модель Сбера не путается в нулях, но вот справиться с календарём и буквами GigaChat 2.0 до конца не может. При вопросе о субботах в ноябре 2024 года он почему-то думает, что месяц начался со среды, а не в пятницу.
При изначально ошибочной предпосылке дальнейшая логика с подсчётами дней не помогает. А что касается букв... Как мы помним, это болезнь архитектуры и деления слов на токены. Хотя вот ChatGPT с активированным «Обоснуй» с подсчётом букв и календарём сейчас всё же справляется.
Протестировать новые модели уже может любой желающий. Для этого достаточно зарегистрироваться на платформе Studio, создать новый проект с GigaChat API и перейти в режим Playground. Развлекайтесь!
_______
Источник | #anti_agi
_____________________________________
Опубликовали техрепорт о претрейне рускоязычных LLM T-lite и T-pro.
Вышел подробный технический отчет о процессе создания русскоязычных моделей T-lite и T-pro от Т-банка. Часто бывает, что команды скупо описывают свои методики обучения, особенно в части обработки данных, но тут ребята детально раскрыла весь процесс от выбора базовой модели и подбора датасетов, до финальных экспериментов. Вместо обучения с нуля они использовали взяли за основу модель Qwen2.5 (я до сих пор считаю ее одной из лучших моделей, чтобы повех тренить что-то свое) и продолжили претрейн на русском языке.
Претрейн происходил в две стадии — первая с бюджетом 100 миллиардов токенов и распределением 90% русского и 10% английского языка. Значительную часть датасета (25%) составил код, что согласуется с исследованиями о влиянии кодовых данных на способности рассуждения. Вторая стадия (40 миллиардов токенов) фокусировалась на высококачественных данных, включая инстракт датасеты. По заветам FineWeb-Edu, команда отфильтровала датасет по образовательной ценности (лишь 6% веб-контента получило высшие оценки). Обучались на 256 H100.
По результатам бенчей модели показали заметный прирост в русскоязычных задачах, особенно в направлениях ЕГЭ, RWSD и математических рассуждениях. О деталях посттрейна (SFT и alignment) оюбещают рассказать в следующем посте.
ТехРепорт на хабре
_______
Источник | #ai_newz
_____________________
@F_S_C_P
Стань спонсором!
www.sberbank.ru
Текст новости
RIP Photoshop (нет) https://t.iss.one/ai_newz/3740
Потестил я мультимодальную Gemini Flash 2.0 (Image Generation) Experimental. Мог бы сказать, что фотошоп в целом больше не нужен, но, блин, эта штука в туории может куда больше, чем мог бы Photoshop. Я совсем не представляю, как можно было бы вручную наложить шоколадный крем на круассаны с первой пикчи.
Никакой из доступных из коробки методов не способен был такое провернуть. Через ControlNet или inpainting так не сделаешь, потому что они изменяют детали — круассаны будут чуть другими или по-другому лежать. А здесь мы имеем хирургически точное редактирование картинки одним только текстом. Единственный минус пока - это низкая детализация и низкое разрешение генераций.
Другие юзкейсы:
- Product photo — раньше нужно было бы тренить LoRA, чтобы получить пикчу №2. Нужно больше фотографий + примерно час работы.
- Character sheet design — пикча №3. По одному концепту получаем разворот с трех сторон для моделлеров. Можно было бы погенерить что-то подобное, но здесь мы видим консистентность, которой раньше было сложно добиться моделями из коробки.
- Нейрофотосессии — пикча №4. Повторяем лицо по одной фотографии так, словно это LoRA для Flux.
- Гайды — пикчи №5,6,7. Может на картинке выделять, куда тыкнуть, рисовать консистентные гайды, как здесь в примере с готовкой.
И т.д.
Вот она, сила мультимодальных моделей. Все это благодаря тому, что тут генерация изображений и LLM объединены вместе. В отличие от, например Flux или Imagen 3, тут картиночные токены выплевываются напрямую из LLM, без вызова диффузии. За счет этого и достигается более нативное редактирование входных картинок. Но такой метод все же пока уступает диффузии в качестве генерации.
Кстати, в Grok такую LLM-генерацию (Aurora) завезли еще в декабре, и ее можно попробовать в Grok3, вот только редактирование там пока отключили.
Что-то подобное показывала OpenAI ещё в прошлом году, но так в прод и не завезли (эх Cэма-Сэма). Если Gemini Flash так хорош и дешевле, то что будет с 4o?
Попробовать можно в ai studio.
_______
Источник | #ai_newz
@F_S_C_P
Стань спонсором!
Потестил я мультимодальную Gemini Flash 2.0 (Image Generation) Experimental. Мог бы сказать, что фотошоп в целом больше не нужен, но, блин, эта штука в туории может куда больше, чем мог бы Photoshop. Я совсем не представляю, как можно было бы вручную наложить шоколадный крем на круассаны с первой пикчи.
Никакой из доступных из коробки методов не способен был такое провернуть. Через ControlNet или inpainting так не сделаешь, потому что они изменяют детали — круассаны будут чуть другими или по-другому лежать. А здесь мы имеем хирургически точное редактирование картинки одним только текстом. Единственный минус пока - это низкая детализация и низкое разрешение генераций.
Другие юзкейсы:
- Product photo — раньше нужно было бы тренить LoRA, чтобы получить пикчу №2. Нужно больше фотографий + примерно час работы.
- Character sheet design — пикча №3. По одному концепту получаем разворот с трех сторон для моделлеров. Можно было бы погенерить что-то подобное, но здесь мы видим консистентность, которой раньше было сложно добиться моделями из коробки.
- Нейрофотосессии — пикча №4. Повторяем лицо по одной фотографии так, словно это LoRA для Flux.
- Гайды — пикчи №5,6,7. Может на картинке выделять, куда тыкнуть, рисовать консистентные гайды, как здесь в примере с готовкой.
И т.д.
Вот она, сила мультимодальных моделей. Все это благодаря тому, что тут генерация изображений и LLM объединены вместе. В отличие от, например Flux или Imagen 3, тут картиночные токены выплевываются напрямую из LLM, без вызова диффузии. За счет этого и достигается более нативное редактирование входных картинок. Но такой метод все же пока уступает диффузии в качестве генерации.
Кстати, в Grok такую LLM-генерацию (Aurora) завезли еще в декабре, и ее можно попробовать в Grok3, вот только редактирование там пока отключили.
Что-то подобное показывала OpenAI ещё в прошлом году, но так в прод и не завезли (эх Cэма-Сэма). Если Gemini Flash так хорош и дешевле, то что будет с 4o?
Попробовать можно в ai studio.
_______
Источник | #ai_newz
@F_S_C_P
Стань спонсором!
Telegram
эйай ньюз
RIP Photoshop (нет)
Потестил я мультимодальную Gemini Flash 2.0 (Image Generation) Experimental. Мог бы сказать, что фотошоп в целом больше не нужен, но, блин, эта штука в туории может куда больше, чем мог бы Photoshop. Я совсем не представляю, как можно…
Потестил я мультимодальную Gemini Flash 2.0 (Image Generation) Experimental. Мог бы сказать, что фотошоп в целом больше не нужен, но, блин, эта штука в туории может куда больше, чем мог бы Photoshop. Я совсем не представляю, как можно…
Krea продолжает жечь.
Restyle Video - загружаете свое видео, а потом выбираете "контролНеты":
"Depth" сохранит движение, захваченное с помощью карты глубины на исходном видео.
"Edges" будет захватывать движение по контурам с исходника - отлично подходит для крупных планов или лиц, говорящих.
"Pose" будет захватывать только движения людей на видео - подходит для видео с людьми и статичным фоном.
"Video" тупо захватит движение из пикселей исходника без дополнительной обработки.
Потом выбираете стиль, надо который навалить на видео.
Напоминает ранний Runway.
_______
Источник | #cgevent
__________________________
Для Gemma 3 вышли официальные квантизированные версии
Квантизация это сейчас стандарт, мало кто будет запускать модели локально в нативных bf16 — большая часть пользователей использует 4 битную квантизацию. И тут проявляется большая проблема — модели, по большей части, выпускают в bfloat16 и совершенно не расчитывают, что кто-то когда-то будет их запускать как-то по-другому, из-за чего заметно страдает качество моделей при локальном использовании. Дело в том, что дешёвая Post-training квантизация, которая не требует тренировки, сильно просаживает качество.
Google специально дотренировали Gemma 3 с quantization aware training, чтобы таких проблем не было. Обещают "схожее качество" с bf16 моделями, но результатов бенчей не дали (а хотелось бы). Такой же релиз делала и Meta с Llama 3.2, правда только для 1B и 3B, а Google выпустил сразу всю линейку. А остальным авторам открытых моделей тоже стоит начать делать подобные релизы.
Скачать
_______
Источник | #ai_newz
@F_S_C_P
-------
Секретики!
-------
Restyle Video - загружаете свое видео, а потом выбираете "контролНеты":
"Depth" сохранит движение, захваченное с помощью карты глубины на исходном видео.
"Edges" будет захватывать движение по контурам с исходника - отлично подходит для крупных планов или лиц, говорящих.
"Pose" будет захватывать только движения людей на видео - подходит для видео с людьми и статичным фоном.
"Video" тупо захватит движение из пикселей исходника без дополнительной обработки.
Потом выбираете стиль, надо который навалить на видео.
Напоминает ранний Runway.
_______
Источник | #cgevent
__________________________
Для Gemma 3 вышли официальные квантизированные версии
Квантизация это сейчас стандарт, мало кто будет запускать модели локально в нативных bf16 — большая часть пользователей использует 4 битную квантизацию. И тут проявляется большая проблема — модели, по большей части, выпускают в bfloat16 и совершенно не расчитывают, что кто-то когда-то будет их запускать как-то по-другому, из-за чего заметно страдает качество моделей при локальном использовании. Дело в том, что дешёвая Post-training квантизация, которая не требует тренировки, сильно просаживает качество.
Google специально дотренировали Gemma 3 с quantization aware training, чтобы таких проблем не было. Обещают "схожее качество" с bf16 моделями, но результатов бенчей не дали (а хотелось бы). Такой же релиз делала и Meta с Llama 3.2, правда только для 1B и 3B, а Google выпустил сразу всю линейку. А остальным авторам открытых моделей тоже стоит начать делать подобные релизы.
Скачать
_______
Источник | #ai_newz
@F_S_C_P
-------
Секретики!
-------
Telegram
Метаверсище и ИИще
Krea продолжает жечь.
Restyle Video - загружаете свое видео, а потом выбираете "контролНеты":
"Depth" сохранит движение, захваченное с помощью карты глубины на исходном видео.
"Edges" будет захватывать движение по контурам с исходника - отлично подходит…
Restyle Video - загружаете свое видео, а потом выбираете "контролНеты":
"Depth" сохранит движение, захваченное с помощью карты глубины на исходном видео.
"Edges" будет захватывать движение по контурам с исходника - отлично подходит…
Вышел DeepCoder 14B Preview
Новый ризонер специально для кода, лидирующий в 14B весовой категории и догоняющий o3-mini и o1, когда они обе на low настройках. Неприятный звоночек — модель не сравнивают с QwQ 32B, основным конкурентом этой модели, а с моделями OpenAI сравнивают только на low настройках. Причём непонятно почему — результаты достойные, даже o3-mini (low) обойти это непросто.
За основу взят DeepSeek R1 Distill 14B, поверх которого запустили RL на 24к задач для кодинга. Это сильно бампануло качество кодинга по сравнению с бейзлайном, при этом случайно улучшив результаты на математике.
Сделали эту модель в колабе с Together AI, это один из клауд провайдеров заточенных специально на ИИ. Я уже писал пару лет назад об их датасете RedPajama, воспроизводящем датасет оригинальной Llama.
А вот самая лучшая часть — авторы опубликовали не только веса, но и код с датасетом. Всё это можно прямо сейчас скачать с 🤗 и гитхаба.
И мы все ближе к маленьким и умелым моделькам, которые можно запускать локально (а 14B можно запускать и на обычном железе) и которые могут заменить проприетарные модели. На этот раз в кодинге. Не устану повторять, что опен сорс – это круто!
Веса
Код
Датасет
@ai_newz
_______
Источник | #ai_newz
Новый ризонер специально для кода, лидирующий в 14B весовой категории и догоняющий o3-mini и o1, когда они обе на low настройках. Неприятный звоночек — модель не сравнивают с QwQ 32B, основным конкурентом этой модели, а с моделями OpenAI сравнивают только на low настройках. Причём непонятно почему — результаты достойные, даже o3-mini (low) обойти это непросто.
За основу взят DeepSeek R1 Distill 14B, поверх которого запустили RL на 24к задач для кодинга. Это сильно бампануло качество кодинга по сравнению с бейзлайном, при этом случайно улучшив результаты на математике.
Сделали эту модель в колабе с Together AI, это один из клауд провайдеров заточенных специально на ИИ. Я уже писал пару лет назад об их датасете RedPajama, воспроизводящем датасет оригинальной Llama.
А вот самая лучшая часть — авторы опубликовали не только веса, но и код с датасетом. Всё это можно прямо сейчас скачать с 🤗 и гитхаба.
И мы все ближе к маленьким и умелым моделькам, которые можно запускать локально (а 14B можно запускать и на обычном железе) и которые могут заменить проприетарные модели. На этот раз в кодинге. Не устану повторять, что опен сорс – это круто!
Веса
Код
Датасет
@ai_newz
_______
Источник | #ai_newz
Telegram
эйай ньюз
Вышел DeepCoder 14B Preview
Новый ризонер специально для кода, лидирующий в 14B весовой категории и догоняющий o3-mini и o1, когда они обе на low настройках. Неприятный звоночек — модель не сравнивают с QwQ 32B, основным конкурентом этой модели, а с моделями…
Новый ризонер специально для кода, лидирующий в 14B весовой категории и догоняющий o3-mini и o1, когда они обе на low настройках. Неприятный звоночек — модель не сравнивают с QwQ 32B, основным конкурентом этой модели, а с моделями…
✔️ Google анонсировали Genie 2 — крупномасштабную «foundation»-модель мира, способную на лету порождать интерактивные 3D-окружения. Ключевые моменты:
📌 Что такое Genie 2
Это автрорегрессивная латентно-диффузионная модель, обученная на огромном видеодатасете. Получив всего одно изображение-подсказку (например, кадр, сгенерированный Imagen 3), Genie 2 разворачивает целый виртуальный мир, в котором можно свободно перемещаться клавиатурой и мышью — как человеку, так и ИИ-агенту. Длительность консистентного эпизода достигает минуты.
Зачем она нужна
Главный барьер в исследованиях «телесных» (embodied) агентов — ограниченный спектр тренировочных сред. Genie 2 снимает это ограничение: модель способна бесконечно генерировать новые ландшафты, объекты, физику и взаимодействия, создавая «безграничный учебник» для RL-агентов.
В работе демонстрируется связка с SIMA — многоцелевым агентом DeepMind: тот получает языковые инструкции («открой синюю дверь») и действует внутри миров, созданных Genie 2. Такое сочетание позволяет быстро генерировать unseen-задачи для оценки или дообучения агентов.
Deepmind
✔️ Марка Цукерберг и ко вместе с Booz Allen Hamilton запустили Llama на МКС для помощи астронавтам.
Компании представили проект «Space Llama» — открытую ИИ-модель Llama 3.2, которая отправилась на Международную космическую станцию. Технология должна помочь экипажу в исследованиях на орбите, сократив зависимость от бумажных инструкций и связи с Землей.
Система работает на базе компьютера Spaceborne Computer-2 от Hewlett Packard Enterprise и GPU Nvidia. Это уже второй шаг Booz Allen Hamilton в области космического ИИ: в августе компания развернула первую языковую модель на МКС. Новый стек технологий обещает ускорить реакцию на нештатные ситуации и снизить затраты на вычисления.
cnbc.com
✔️ Perplexity планирует релиз браузера Comet в мае.
CEO Perplexity Аравинд Шринивас в подкасте TBPN раскрыл планы компании: их новый браузер Comet, запуск которого запланирован на май, будет отслеживать действия пользователей за пределами приложения. Цель — собрать данные о покупках, посещаемых сайтах, отелях и ресторанах, чтобы формировать детальные профили для таргетированной рекламы. По словам Шриниваса, это повысит релевантность объявлений, а пользователи «не будут против».
Comet уже столкнулся с задержками, но команда уверена в сроках. Параллельно Perplexity укрепляет позиции в мобильном сегменте: приложение предустановят на смартфоны Motorola Razr, а с Samsung ведутся переговоры.
techcrunch.com
✔️ Криптогигант Paradigm вложил 50млн. долл. в ИИ−стартап NousResearch.
Сделка оценила проект NousResearch в 1 млрд. долларов. Nous разрабатывает открытые ИИ-модели, конкурирующие с решениями OpenAI, но с упором на распределенные вычисления: вместо дата-центров стартап использует мощности обычных пользователей через блокчейн Solana.
Основатели Nous — исследователи ИИ, ранее выпустившие популярные в opensource-сообществе модели Hermes. Их новый подход позволяет обучать нейросети на «простаивающих» GPU, стимулируя участников криптовалютными вознаграждениями.
fortune.com
✔️ Ziff Davis подала в суд на OpenAI из-за незаконного использования контента для обучения ИИ.
Крупный медиа-холдинг Ziff Davis подал иск против OpenAI в федеральный суд Делавэра, обвинив компанию в использовании своих статей для обучения нейросетей без разрешения. По данным иска, OpenAI копировала материалы PCMag, Mashable и IGN — активов Ziff Davis, которые ежегодно публикуют около 2 млн статей. Компания требует компенсацию в сотни миллионов долларов, утверждая, что действия OpenAI нарушают авторские права и вводят пользователей в заблуждение: ChatGPT якобы приписывает Ziff Davis информацию, которую та не публиковала.
OpenAI настаивает, что обучение моделей на публичных данных попадает под «добросовестное использование», критичное для инноваций. Однако Ziff Davis заявляет, что после блокировки GPTBot в мае и августе 2024 года компания продолжила сбор контента.
news.bloomberglaw.com
@ai_machinelearning_big_data
#news #ai #ml
_______
Источник | #ai_machinelearning_big_data
📌 Что такое Genie 2
Это автрорегрессивная латентно-диффузионная модель, обученная на огромном видеодатасете. Получив всего одно изображение-подсказку (например, кадр, сгенерированный Imagen 3), Genie 2 разворачивает целый виртуальный мир, в котором можно свободно перемещаться клавиатурой и мышью — как человеку, так и ИИ-агенту. Длительность консистентного эпизода достигает минуты.
Зачем она нужна
Главный барьер в исследованиях «телесных» (embodied) агентов — ограниченный спектр тренировочных сред. Genie 2 снимает это ограничение: модель способна бесконечно генерировать новые ландшафты, объекты, физику и взаимодействия, создавая «безграничный учебник» для RL-агентов.
В работе демонстрируется связка с SIMA — многоцелевым агентом DeepMind: тот получает языковые инструкции («открой синюю дверь») и действует внутри миров, созданных Genie 2. Такое сочетание позволяет быстро генерировать unseen-задачи для оценки или дообучения агентов.
Deepmind
✔️ Марка Цукерберг и ко вместе с Booz Allen Hamilton запустили Llama на МКС для помощи астронавтам.
Компании представили проект «Space Llama» — открытую ИИ-модель Llama 3.2, которая отправилась на Международную космическую станцию. Технология должна помочь экипажу в исследованиях на орбите, сократив зависимость от бумажных инструкций и связи с Землей.
Система работает на базе компьютера Spaceborne Computer-2 от Hewlett Packard Enterprise и GPU Nvidia. Это уже второй шаг Booz Allen Hamilton в области космического ИИ: в августе компания развернула первую языковую модель на МКС. Новый стек технологий обещает ускорить реакцию на нештатные ситуации и снизить затраты на вычисления.
cnbc.com
✔️ Perplexity планирует релиз браузера Comet в мае.
CEO Perplexity Аравинд Шринивас в подкасте TBPN раскрыл планы компании: их новый браузер Comet, запуск которого запланирован на май, будет отслеживать действия пользователей за пределами приложения. Цель — собрать данные о покупках, посещаемых сайтах, отелях и ресторанах, чтобы формировать детальные профили для таргетированной рекламы. По словам Шриниваса, это повысит релевантность объявлений, а пользователи «не будут против».
Comet уже столкнулся с задержками, но команда уверена в сроках. Параллельно Perplexity укрепляет позиции в мобильном сегменте: приложение предустановят на смартфоны Motorola Razr, а с Samsung ведутся переговоры.
techcrunch.com
✔️ Криптогигант Paradigm вложил 50млн. долл. в ИИ−стартап NousResearch.
Сделка оценила проект NousResearch в 1 млрд. долларов. Nous разрабатывает открытые ИИ-модели, конкурирующие с решениями OpenAI, но с упором на распределенные вычисления: вместо дата-центров стартап использует мощности обычных пользователей через блокчейн Solana.
Основатели Nous — исследователи ИИ, ранее выпустившие популярные в opensource-сообществе модели Hermes. Их новый подход позволяет обучать нейросети на «простаивающих» GPU, стимулируя участников криптовалютными вознаграждениями.
fortune.com
✔️ Ziff Davis подала в суд на OpenAI из-за незаконного использования контента для обучения ИИ.
Крупный медиа-холдинг Ziff Davis подал иск против OpenAI в федеральный суд Делавэра, обвинив компанию в использовании своих статей для обучения нейросетей без разрешения. По данным иска, OpenAI копировала материалы PCMag, Mashable и IGN — активов Ziff Davis, которые ежегодно публикуют около 2 млн статей. Компания требует компенсацию в сотни миллионов долларов, утверждая, что действия OpenAI нарушают авторские права и вводят пользователей в заблуждение: ChatGPT якобы приписывает Ziff Davis информацию, которую та не публиковала.
OpenAI настаивает, что обучение моделей на публичных данных попадает под «добросовестное использование», критичное для инноваций. Однако Ziff Davis заявляет, что после блокировки GPTBot в мае и августе 2024 года компания продолжила сбор контента.
news.bloomberglaw.com
@ai_machinelearning_big_data
#news #ai #ml
_______
Источник | #ai_machinelearning_big_data
Telegram
Machinelearning
✔️ Google анонсировали Genie 2 — крупномасштабную «foundation»-модель мира, способную на лету порождать интерактивные 3D-окружения. Ключевые моменты:
📌 Что такое Genie 2
Это автрорегрессивная латентно-диффузионная модель, обученная на огромном видеодатасете.…
📌 Что такое Genie 2
Это автрорегрессивная латентно-диффузионная модель, обученная на огромном видеодатасете.…
А OpenAI идёт в консьюмерские продукты и поиск, будет теперь больше информации показать о товарах найденных и всякие автокомплиты, как в Гугле, в чате показывать. https://techcrunch.com/2025/04/28/openai-upgrades-chatgpt-search-with-shopping-features/
_______
Источник | #ai_product
@F_S_C_P
-------
Поддержи канал подпиской
-------
_______
Источник | #ai_product
@F_S_C_P
-------
Поддержи канал подпиской
-------
TechCrunch
OpenAI upgrades ChatGPT search with shopping features | TechCrunch
OpenAI is updating ChatGPT Search to give users an improved shopping experience, the company announced in a blog post.
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini 2.5 Pro прошла Pokemon Blue
Всего пару месяцев назад Claude посадили играть в покемонов, где модель успешно застряла на одном моменте. Cейчас у Gemini 2.5 Pro вышло пройти игру полностью.
Достижение заметное, но не означает превосходство одной модели над другой — модели запускали в разных средах с разным доступом к инфе. К примеру, помимо картинки, Gemini получала некоторые данные напрямую из движка игры и имела несколько подсказок по прохождению в промпте, без этого у модели играть не выходит. Да и в тренировочных данных ллм было полно инфы и советов по прохождению, с новой игрой было бы сложнее.
Вообще хотелось бы, чтобы это оформили в виде бенчмарка, но тут важно чтобы не пришли юристы Нинтендо и не засудили всех причастных. А как такое появится, там и до спидранов недалеко.
@ai_newz
_______
Источник | #ai_newz
@F_S_C_P
-------
Поддержи канал подпиской
-------
Всего пару месяцев назад Claude посадили играть в покемонов, где модель успешно застряла на одном моменте. Cейчас у Gemini 2.5 Pro вышло пройти игру полностью.
Достижение заметное, но не означает превосходство одной модели над другой — модели запускали в разных средах с разным доступом к инфе. К примеру, помимо картинки, Gemini получала некоторые данные напрямую из движка игры и имела несколько подсказок по прохождению в промпте, без этого у модели играть не выходит. Да и в тренировочных данных ллм было полно инфы и советов по прохождению, с новой игрой было бы сложнее.
Вообще хотелось бы, чтобы это оформили в виде бенчмарка, но тут важно чтобы не пришли юристы Нинтендо и не засудили всех причастных. А как такое появится, там и до спидранов недалеко.
@ai_newz
_______
Источник | #ai_newz
@F_S_C_P
-------
Поддержи канал подпиской
-------
🖥 ChatGPT обогнал Википедию по количеству пользователей.
Раньше Википедия была главным инструментом для тех, кто хотел получить знания.
Всего за несколько лет ИИ стал главным средством для обучения.
И пути назад уже нет.
https://www.reddit.com/r/wikipedia/comments/1kn8cms/oc_chatgpt_now_has_more_monthly_users_than/?rdt=59790
#chatgpt #ai
_______
Источник | #ai_machinelearning_big_data
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Раньше Википедия была главным инструментом для тех, кто хотел получить знания.
Всего за несколько лет ИИ стал главным средством для обучения.
И пути назад уже нет.
https://www.reddit.com/r/wikipedia/comments/1kn8cms/oc_chatgpt_now_has_more_monthly_users_than/?rdt=59790
#chatgpt #ai
_______
Источник | #ai_machinelearning_big_data
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
СЕО бояться отстать из-за ИИ⚖️
IBM запилили опрос руководителей, которые потратили свои денюшки в внедрение ИИ💵в своих организациях. 64% признались, что проинвестировали в ИИ только из-за страха выглядеть отстающими. Т.е. вложение ради вложения. Основная причина скорее всего — непонимание вообще, что это такое, и уж тем более про то, зачем это нужно.
ИИ действительно полезный инструмент, а где-то может стать киллер-фичей или Х-фактором⚔️ Но осознанность должна быть, хотя бы с точки зрения менеджмента. Это нормально для менеджеров применять технологии/инструменты или управлять вещами, в которых он не эксперт, но как же бизнес-велью. В общем и целом тема хайп, пользу может принести, но всегда нужно погружаться в вопрос. или найти человека, который сможет объяснить тему, как будто разговаривает с 5-летним ребенком🐶))
Кстати, по опросу только 25% проектов с #ИИ дали ожидаемую выгоду, 48% пока не получило никакой выгоды. Такая история
#AI #business
_______
Источник | #bessec
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
IBM запилили опрос руководителей, которые потратили свои денюшки в внедрение ИИ💵в своих организациях. 64% признались, что проинвестировали в ИИ только из-за страха выглядеть отстающими. Т.е. вложение ради вложения. Основная причина скорее всего — непонимание вообще, что это такое, и уж тем более про то, зачем это нужно.
ИИ действительно полезный инструмент, а где-то может стать киллер-фичей или Х-фактором⚔️ Но осознанность должна быть, хотя бы с точки зрения менеджмента. Это нормально для менеджеров применять технологии/инструменты или управлять вещами, в которых он не эксперт, но как же бизнес-велью. В общем и целом тема хайп, пользу может принести, но всегда нужно погружаться в вопрос. или найти человека, который сможет объяснить тему, как будто разговаривает с 5-летним ребенком🐶))
Кстати, по опросу только 25% проектов с #ИИ дали ожидаемую выгоду, 48% пока не получило никакой выгоды. Такая история
#AI #business
_______
Источник | #bessec
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
IBM Newsroom
IBM Study: CEOs Double Down on AI While Navigating Enterprise Hurdles
A new global study by the IBM Institute for Business Value found that surveyed CEOs are committed to advancing AI solutions across their organization even as they face challenges from accelerating technology adoption.
Что показали на Google I/O?
Только что завершилась презентация Google, и это, похоже, крупнейшая презентация 2025-го по количеству и качеству новых фишек и инструментов – Google явно учится на прошлогоднем опыте.
Сначала самое жаркое:
- Veo 3 — Veo 2 ещё не успели сместить с пьедестала, а Google уже дропнули 3-ю версию SOTA видеогенератора. Лучше во всём, и теперь с нативной генерацией аудио, включая диалоги с липсинком! Доступна уже сегодня.
- Imagen 4 — опять же, лучше во всём своего предшественника. Остаётся проверить, вдруг это новая SOTA? Уже в проде.
- Agent mode в Gemini — сможет искать квартиру по заданным критериям, используя MCP для доступа к листингам и даже назначать встречи. "скоро"
- AI Mode в Google Поиск — В AI Mode интегрируются агентские возможности Project Mariner: поиск сможет выполнять задачи от имени пользователя (находить билеты, бронировать столики, записываться на услуги). Более того, агент сможет отслеживать цены на товары, уведомлять о снижении и, с разрешения пользователя, совершать покупку через Google Pay. Сам AI мод уже должен быть доступен, но не весь его функционал. Летом обещают завезти туда и Deep Search.
- Примерка в Поиске — теперь можно виртуально примерять одежду на себе с помощью специально обученного ИИ-генератора изображений (на базе Imagen). Доступно в Labs с сегодняшнего дня.
- Риалтайм перевод в Google Meet — сохраняет тон, темп и даже интонацию говорящего. Доступен для подписчиков на английском и испанском, больше языков — "in the next few weeks".
- Обновлённый Gemini Live — теперь включает возможности Project Astra (камера и демонстрация экрана). Скоро сможет подключаться к приложениям Calendar, Maps, Keep и Tasks. Юзкейсов со стримингом с камеры и экрана масса. Доступен в Gemini App.
- Personal Context в Gemini — теперь можно дать разрешение на использование данных из вашего аккаунта Google (например, Gmail, Drive, Docs, Search) для персонализации, хотя пока что готов только доступ к истории поиска. В целом, нейронке теперь будет известно о вас всё. Как-то крипово даже. Обещают "скоро".
Для технарей:
- Jules — агент для кода от Google, прямая ответка на релиз Codex от OpenAI. В раннем доступе гоняли с декабря, а теперь доступен всем на jules.google.
- Gemini Diffusion — экспериментальная диффузионная модель для текста, в 5 раз быстрее Gemini 2.0 Flash Lite (самой быстрой модели Google), при сохранении качества, особенно в коде и математике. 1479 токенов в секунду это не шутка.
- Поддержка MCP в Gemini SDK — Gemini SDK теперь совместим с инструментами Model Context Protocol (MCP от Anthropic), что позволяет агентам получать доступ к другим сервисам. (Видимо, побочный эффект Agent mode).
- Обновлённый Gemini 2.5 Flash — Улучшен по ключевым бенчмаркам (рассуждения, код, длинный контекст) и на 22% эффективнее по использованию токенов, что особенно актуально учитывая разговорчивость 2.5 Flash. Можно заценить в ai.studio и пр.
- API с нативной поддержкой звука — превью text-to-speech в Gemini API поддерживает 2 голоса, более 24 языков, может шептать. + Live API также получит превью 2.5 Flash с нативным аудиодиалогом. Уже доступно.
- Бюджеты на размышления (Thinking Budgets) в Gemini 2.5 Pro — функция для контроля соотношения затрат/задержки и качества ответа появится в 2.5 Pro в ближайшие недели, а в 2.5 Flash она уже месяц.
Mic drop...🎤
@ai_newz
_______
Источник | #ai_newz
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Только что завершилась презентация Google, и это, похоже, крупнейшая презентация 2025-го по количеству и качеству новых фишек и инструментов – Google явно учится на прошлогоднем опыте.
Сначала самое жаркое:
- Veo 3 — Veo 2 ещё не успели сместить с пьедестала, а Google уже дропнули 3-ю версию SOTA видеогенератора. Лучше во всём, и теперь с нативной генерацией аудио, включая диалоги с липсинком! Доступна уже сегодня.
- Imagen 4 — опять же, лучше во всём своего предшественника. Остаётся проверить, вдруг это новая SOTA? Уже в проде.
- Agent mode в Gemini — сможет искать квартиру по заданным критериям, используя MCP для доступа к листингам и даже назначать встречи. "скоро"
- AI Mode в Google Поиск — В AI Mode интегрируются агентские возможности Project Mariner: поиск сможет выполнять задачи от имени пользователя (находить билеты, бронировать столики, записываться на услуги). Более того, агент сможет отслеживать цены на товары, уведомлять о снижении и, с разрешения пользователя, совершать покупку через Google Pay. Сам AI мод уже должен быть доступен, но не весь его функционал. Летом обещают завезти туда и Deep Search.
- Примерка в Поиске — теперь можно виртуально примерять одежду на себе с помощью специально обученного ИИ-генератора изображений (на базе Imagen). Доступно в Labs с сегодняшнего дня.
- Риалтайм перевод в Google Meet — сохраняет тон, темп и даже интонацию говорящего. Доступен для подписчиков на английском и испанском, больше языков — "in the next few weeks".
- Обновлённый Gemini Live — теперь включает возможности Project Astra (камера и демонстрация экрана). Скоро сможет подключаться к приложениям Calendar, Maps, Keep и Tasks. Юзкейсов со стримингом с камеры и экрана масса. Доступен в Gemini App.
- Personal Context в Gemini — теперь можно дать разрешение на использование данных из вашего аккаунта Google (например, Gmail, Drive, Docs, Search) для персонализации, хотя пока что готов только доступ к истории поиска. В целом, нейронке теперь будет известно о вас всё. Как-то крипово даже. Обещают "скоро".
Для технарей:
- Jules — агент для кода от Google, прямая ответка на релиз Codex от OpenAI. В раннем доступе гоняли с декабря, а теперь доступен всем на jules.google.
- Gemini Diffusion — экспериментальная диффузионная модель для текста, в 5 раз быстрее Gemini 2.0 Flash Lite (самой быстрой модели Google), при сохранении качества, особенно в коде и математике. 1479 токенов в секунду это не шутка.
- Поддержка MCP в Gemini SDK — Gemini SDK теперь совместим с инструментами Model Context Protocol (MCP от Anthropic), что позволяет агентам получать доступ к другим сервисам. (Видимо, побочный эффект Agent mode).
- Обновлённый Gemini 2.5 Flash — Улучшен по ключевым бенчмаркам (рассуждения, код, длинный контекст) и на 22% эффективнее по использованию токенов, что особенно актуально учитывая разговорчивость 2.5 Flash. Можно заценить в ai.studio и пр.
- API с нативной поддержкой звука — превью text-to-speech в Gemini API поддерживает 2 голоса, более 24 языков, может шептать. + Live API также получит превью 2.5 Flash с нативным аудиодиалогом. Уже доступно.
- Бюджеты на размышления (Thinking Budgets) в Gemini 2.5 Pro — функция для контроля соотношения затрат/задержки и качества ответа появится в 2.5 Pro в ближайшие недели, а в 2.5 Flash она уже месяц.
Mic drop...🎤
@ai_newz
_______
Источник | #ai_newz
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Telegram
эйай ньюз
Провел гугл свою презентацию Google I/O
Смотреть стало скучно спустя 0 секунд, начиная с речи ни о чем от Сундара Пичалька. Фото из зрительского зала прикрепляю.
Показали свою новую Сору, а еще поржали сами над собой, посчитав, что сказали "AI" 121 раз.…
Смотреть стало скучно спустя 0 секунд, начиная с речи ни о чем от Сундара Пичалька. Фото из зрительского зала прикрепляю.
Показали свою новую Сору, а еще поржали сами над собой, посчитав, что сказали "AI" 121 раз.…
#aws #vanta #ai #azure
На этом моём скриншоте прекрасно всё.
Добро пожаловать в 2025 год.
Vanta, компания, которая за огромные деньги позволяет проходить аудит от SOC2 до PCIDSS, при помощи AI генерирует рекомендации с несуществующими ресурсами терраформ.
У меня всё.
_______
Источник | #makebreakreflect
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
На этом моём скриншоте прекрасно всё.
Добро пожаловать в 2025 год.
Vanta, компания, которая за огромные деньги позволяет проходить аудит от SOC2 до PCIDSS, при помощи AI генерирует рекомендации с несуществующими ресурсами терраформ.
У меня всё.
_______
Источник | #makebreakreflect
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
🤖 Boston Dynamics показали, как их гуманоидный робот Atlas «видит» мир и взаимодействует с ним
В новом видео команда ИИ-инженеров показала, как устроена система восприятия Atlas — и это уже не просто «робот с камерами», а почти полноценный агент с чувством пространства и контекста.
🧠 Что умеет Atlas:
🔹 Понимает форму и назначение объектов в реальной среде
🔹 Объединяет 2D и 3D восприятие
🔹 Использует ключевые точки для ориентации в пространстве
🔹 Отслеживает позы объектов с учётом их движения и перекрытия
🔹 Сливает визуальные данные, кинематику и знания об объектах в одну систему
🔹 Имеет сверхточную калибровку для координации «глаз–рука»
Atlas может не просто находить предмет, но понимать, *что это*, *зачем оно нужно* и *как его лучше схватить*, даже если оно наполовину скрыто.
Команда инженеров работает над единой моделью, которая объединяет восприятие и управление. Это шаг от просто «пространственного ИИ» к настоящему физическому интеллекту.
Их робот выглядит на данный момент самым передовым, как вы считаете?
@ai_machinelearning_big_data
#Atlas #BostonDynamics #AI #Robotics #Перцепция #ИскусственныйИнтеллект
_______
Источник | #ai_machinelearning_big_data
В новом видео команда ИИ-инженеров показала, как устроена система восприятия Atlas — и это уже не просто «робот с камерами», а почти полноценный агент с чувством пространства и контекста.
🧠 Что умеет Atlas:
🔹 Понимает форму и назначение объектов в реальной среде
🔹 Объединяет 2D и 3D восприятие
🔹 Использует ключевые точки для ориентации в пространстве
🔹 Отслеживает позы объектов с учётом их движения и перекрытия
🔹 Сливает визуальные данные, кинематику и знания об объектах в одну систему
🔹 Имеет сверхточную калибровку для координации «глаз–рука»
Atlas может не просто находить предмет, но понимать, *что это*, *зачем оно нужно* и *как его лучше схватить*, даже если оно наполовину скрыто.
Команда инженеров работает над единой моделью, которая объединяет восприятие и управление. Это шаг от просто «пространственного ИИ» к настоящему физическому интеллекту.
Их робот выглядит на данный момент самым передовым, как вы считаете?
@ai_machinelearning_big_data
#Atlas #BostonDynamics #AI #Robotics #Перцепция #ИскусственныйИнтеллект
_______
Источник | #ai_machinelearning_big_data
Telegram
Machinelearning
🤖 Boston Dynamics показали, как их гуманоидный робот Atlas «видит» мир и взаимодействует с ним
В новом видео команда ИИ-инженеров показала, как устроена система восприятия Atlas — и это уже не просто «робот с камерами», а почти полноценный агент с чувством…
В новом видео команда ИИ-инженеров показала, как устроена система восприятия Atlas — и это уже не просто «робот с камерами», а почти полноценный агент с чувством…
This media is not supported in your browser
VIEW IN TELEGRAM
✔️«ИИ-компании должны платить налоги, чтобы смягчить удар по рынку труда»
CEO Anthropic Дарио Амодей считает, что такие компании, как его, могут в будущем облагаться специальным налогом — чтобы компенсировать массовую потерю рабочих мест.
Он предупреждает: уже через 1–5 лет ИИ способен вытеснить младший офисный персонал по всему миру.
Даже если Anthropic остановится, говорит Амодей, это ничего не изменит:
«Остальные продолжат. А если нет — нас обгонит Китай».
🚌 «Автобус уже мчится — остановить его нельзя. Но, возможно, мы ещё можем повернуть руль».
📌 Полное интервью: https://www.youtube.com/watch?v=NWxHOrn8-rs
#Anthropic #ai
_______
Источник | #ai_machinelearning_big_data
@F_S_C_P
-------
Поддержи канал подпиской
-------
CEO Anthropic Дарио Амодей считает, что такие компании, как его, могут в будущем облагаться специальным налогом — чтобы компенсировать массовую потерю рабочих мест.
Он предупреждает: уже через 1–5 лет ИИ способен вытеснить младший офисный персонал по всему миру.
Даже если Anthropic остановится, говорит Амодей, это ничего не изменит:
«Остальные продолжат. А если нет — нас обгонит Китай».
🚌 «Автобус уже мчится — остановить его нельзя. Но, возможно, мы ещё можем повернуть руль».
📌 Полное интервью: https://www.youtube.com/watch?v=NWxHOrn8-rs
#Anthropic #ai
_______
Источник | #ai_machinelearning_big_data
@F_S_C_P
-------
Поддержи канал подпиской
-------
Помните как Claude 4 уведомлял власти если видел серьёзное правонарушение?
После выхода system card многие возмутились — ведь LLM всё ещё часто галлюцинируют и могут что-то не так понять, а потом разбирайся с органами. Но когда такой же промпт попробовали дать другим моделям, они, внезапно, тоже начали стучать регуляторам. Но это не замечали, потому что лишь Anthropic решили протестировать модель на такое.
Из этого всего сделали даже шуточный бенчмарк — Snitch Bench, который проверяет насколько часто модель будет пытаться уведомлять регуляторов, если увидит серьёзное правонарушение. Больше всех закрывает глаза на преступления o4-mini, а вот мимо последних Claude и Gemini 2.0 Flash уже не пройдёшь.
Бенч
@ai_newz
_______
Источник | #ai_newz
@F_S_C_P
-------
Поддержи канал подпиской
-------
После выхода system card многие возмутились — ведь LLM всё ещё часто галлюцинируют и могут что-то не так понять, а потом разбирайся с органами. Но когда такой же промпт попробовали дать другим моделям, они, внезапно, тоже начали стучать регуляторам. Но это не замечали, потому что лишь Anthropic решили протестировать модель на такое.
Из этого всего сделали даже шуточный бенчмарк — Snitch Bench, который проверяет насколько часто модель будет пытаться уведомлять регуляторов, если увидит серьёзное правонарушение. Больше всех закрывает глаза на преступления o4-mini, а вот мимо последних Claude и Gemini 2.0 Flash уже не пройдёшь.
Бенч
@ai_newz
_______
Источник | #ai_newz
@F_S_C_P
-------
Поддержи канал подпиской
-------