Please open Telegram to view this post
VIEW IN TELEGRAM
🤔3❤1👍1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Первый дата-центр Groq в ЕС разместится в Хельсинки, Финляндия, в сотрудничестве с местным провайдером Equinix. Этот шаг направлен на удовлетворение растущего спроса со стороны европейских клиентов, которым необходимы минимальная задержка и высокая скорость обработки запросов. Размещение инфраструктуры в Финляндии также решает вопросы суверенитета данных европейских пользователей.
Европейский хаб станет частью глобальной сети компании, которая уже включает мощности в США, Канаде и Саудовской Аравии. Выбор Финляндии обусловлен ее надежной энергосистемой и возможностями для эффективного охлаждения оборудования.
groq.com
На саммите в Рио-де-Жанейро расширенный блок БРИКС принял декларацию, значительная часть которой посвящена управлению искусственным интеллектом. В документе содержится инициатива к созданию глобальной системы регулирования под эгидой ООН, чтобы преимущества технологии были доступны всем странам, включая Глобальный Юг.
Ключевые принципы, предложенные блоком: защита от несанкционированного использования ИИ, ограничение на избыточный сбор данных и разработка механизмов справедливой компенсации для правообладателей. Декларация также подтверждает суверенное право каждой страны устанавливать собственные правила, но рекомендует создание совместимых международных стандартов.
reuters.com
NVIDIA планирует создать на севере Израиля крупный технологический кампус, что станет одной из крупнейших инвестиций в истории страны. Для проработки деталей проекта уже выпущен официальный запрос информации (RFI).
Цель «мегакампуса» - значительно расширить операции NVIDIA и ускорить инновации в области ИИ. На данный момент в израильском центре исследований и разработок NVIDIA, который является крупнейшим за пределами США, уже работает около 5000 сотрудников.
timesofisrael.com
Shenzhen Dobot продемонстрировала возможности телеуправления своим роботом Dobot Atom. Находясь в провинции Шаньдун, робот успешно приготовил стейк, в то время как оператор управлял им из провинции Гуандун, с расстояния 1500 километров.
Управление осуществлялось в реальном времени с помощью VR-гарнитуры, которая отслеживала и передавала движения рук инженера. В ходе демонстрации робот выполнил несколько сложных задач с точностью движений до 0.05 мм.
Dobot уже начала глобальные поставки Atom, став одним из немногих китайских разработчиков гуманоидов, вышедших на стадию серийного производства.
scmp.com
Trae Agent превращает текстовые запросы в рабочий код. Этот экспериментальный проект использует Claude и Gemini, чтобы писать, отлаживать и исправлять ошибки в коде без участия человека. Он работает через командную строку, анализирует большие проекты, применяет bash-скрипты и обновляет файлы в реальном времени.
Система уже показала высокие результаты на тесте SWE-bench Verified. Trae открыт под MIT-лицензией, а его команда планирует расширить поддержку LLM, добавить MCP и усилить Unit-тестирование.
github.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2🔥2
🎥 Memvid — революционный способ хранения и поиска текстовых данных в видеоформате
Этот проект превращает миллионы текстовых фрагментов в сжатое MP4-видео с сохранением возможности семантического поиска. Технология кодирует текст в QR-коды, используя преимущества современных видеокодеков для сверхэффективного сжатия — до 100 раз компактнее векторных баз данных.
Поиск работает напрямую по видеофайлу без серверной инфраструктуры, с задержкой менее 100 мс. Поддерживается интеграция с PDF и Markdown, а в будущем разработчики обещают облачный интерфейс и потоковое добавление данных.
🤖 GitHub
@bigdatai
Этот проект превращает миллионы текстовых фрагментов в сжатое MP4-видео с сохранением возможности семантического поиска. Технология кодирует текст в QR-коды, используя преимущества современных видеокодеков для сверхэффективного сжатия — до 100 раз компактнее векторных баз данных.
Поиск работает напрямую по видеофайлу без серверной инфраструктуры, с задержкой менее 100 мс. Поддерживается интеграция с PDF и Markdown, а в будущем разработчики обещают облачный интерфейс и потоковое добавление данных.
🤖 GitHub
@bigdatai
🔥9
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Новая возможность, интегрированная в интерфейс Gemini, позволяет подписчикам планов Pro и Ultra создавать короткие видеоролики на основе одного статичного изображения. Для этого достаточно загрузить картинку, выбрать опцию «Видео» и текстом описать желаемый сценарий.
Google говорит, что развертывание функции уже началось, однако ее доступность может варьироваться. Проверить наличие обновления можно непосредственно в приложении Gemini или на веб-сайте.
Google Gemini App в сети X
Perplexity открыл доступ к своему ранее анонсированному веб-браузер Comet. Браузер построен на концепции «агентного ИИ», который не просто ищет информацию, а способен думать, действовать и принимать решения от имени пользователя.
Встроенный ассистент может сравнивать товары, суммировать контент и назначать встречи, превращая сложные рабочие процессы в простой диалог. Попробовать Comet могут пока только подписчики премиум-плана Perplexity Max. Более широкий доступ по приглашениям компания обещает открыть в течение лета.
reuters.com
Mistral AI расширила серию Devstral, моделей для автономной разработки ПО. В линейку вошли две версии: открытая Devstral Small 1.1 и проприетарная Devstral Medium.
Devstral Small 1.1 осталась на прежней архитектуре, с размером в 24 млрд. параметров и уже доступна на Hugging Face. Она показывает результат 53.6% в бенчмарке SWE-Bench и позиционируется как лучшая открытая модель для ИИ-агентов, работающих с кодом.
Более мощная Devstral Medium доступна через API. По заявлениям Mistral, она превосходит GPT-4.1 и Gemini 2.5 Pro в том же тесте (61.6%), но при этом обходится значительно дешевле ($0.4/M input и $2/M output.)
mistral.ai
Arm объявила, что ее процессорное расширение Scalable Matrix Extension 2 (SME2) скоро появится в новом поколении мобильных чипов для Android. Эта технология, ранее доступная в основном для серверных систем, предназначена для радикального ускорения матричных вычислений, основы большинства ML-алгоритмов.
Эффект от внедрения SME2 обещает быть заметным. По данным Arm, модель Gemma 3 работает на устройствах с этой технологией в 6 раз быстрее, а на обобщение текста из 800 слов уходит менее секунды.
Появление SME2 может дать Android-флагманам серьезное преимущество, поскольку Apple хоть и использует технологию в чипах M4 для iPad, но еще не внедрила ее в iPhone. Важно, что программная экосистема уже готова: поддержка SME2 реализована в ключевых библиотеках Android и популярных фреймворках.
androidauthority.com
В сентябре в Дубае начнет работу ресторан WOOHOO, концепция, меню и даже рабочие процессы которого были созданы искусственным интеллектом. В основе проекта лежит проприетарная LLM «Chef Aiman», обученная на десятилетиях исследований в области пищевых наук, данных о молекулярном составе продуктов и более чем тысяче мировых рецептов.
Система анализирует ингредиенты на уровне текстур и вкусов, а затем предлагает новые сочетания. Эти идеи дорабатываются командой поваров под руководством известного шефа Рейфа Отмана. В будущем основатели планируют лицензировать «Chef Aiman» другим ресторанам как инструмент для создания уникального гастрономического опыта и повышения устойчивости производства.
alarabiya.net
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
🚀 Прорыв для Hunyuan-large-vision!
Мультимодальная модель понимания от Hunyuan вышла на 1-е место среди всех китайских моделей на лидерборде LMSYS Vision Arena.
📈 В мировом зачёте:
— #12 среди всех моделей
— #5 в мире, если убрать модели со style control
Это важный шаг для китайского ИИ в мультимодальной гонке — модель показывает сильные результаты по пониманию изображений и взаимодействию с визуальным контентом.
🔗 Рейтинг: https://lmarena.ai/leaderboard/vision/overall
Мультимодальная модель понимания от Hunyuan вышла на 1-е место среди всех китайских моделей на лидерборде LMSYS Vision Arena.
📈 В мировом зачёте:
— #12 среди всех моделей
— #5 в мире, если убрать модели со style control
Это важный шаг для китайского ИИ в мультимодальной гонке — модель показывает сильные результаты по пониманию изображений и взаимодействию с визуальным контентом.
🔗 Рейтинг: https://lmarena.ai/leaderboard/vision/overall
❤3👍3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Хайповый Grok 4 может делать реально интересные вещи — он сгенерировал реалистичную симуляцию движения Земли, Луны и спутников вокруг планеты
Самое класнное. Что ии самостоятельно зашел в интернет, нашел нужные модели, текстуры, разбил на слои и собрал воедино — облака движутся отдельно, а свет от Солнца падает в соответствии с реальностью. И все это на Three.js.
Разработчики сделали упор на агентские функции.
https://x.com/itsPaulAi/status/1943434667916763598
Самое класнное. Что ии самостоятельно зашел в интернет, нашел нужные модели, текстуры, разбил на слои и собрал воедино — облака движутся отдельно, а свет от Солнца падает в соответствии с реальностью. И все это на Three.js.
Разработчики сделали упор на агентские функции.
https://x.com/itsPaulAi/status/1943434667916763598
❤8👍4😁3👎1
В эпоху бума нейросетей неудивительно, что Data Science и ML — среди самых высокооплачиваемых профессий в ИТ (по данным «Хабр»).
Освоить перспективное направление можно в онлайн-магистратуре «Прикладной анализ данных и машинное обучение» от МИФИ и Skillfactory. Это привычная магистратура, но учиться вы будете онлайн в удобное время.
За два года получите фундаментальные знания с фокусом на практику от преподавателей вуза и экспертов из крупных компаний. Освоите Data Science и Machine Learning с нуля до продвинутого уровня. Выберете направление — ML или MLOps. В финале получите диплом гособразца МИФИ.
При этом сохраняются все студенческие льготы, включая отсрочку от армии. А с господдержкой обучение может стоит от 198 р/месяц. Чтобы поступить, нужен диплом о высшем образовании или студенческий билет последних курсов вуза.
Подавайте заявку до 25 июля и получите бесплатно доступ к курсу на выбор стоимостью до 300 000 рублей, а также к курсу по математике для подготовки к вступительным испытаниям.
Реклама. ООО "СКИЛФЭКТОРИ". ИНН 9702009530. erid: 2W5zFGE6Hfn
Освоить перспективное направление можно в онлайн-магистратуре «Прикладной анализ данных и машинное обучение» от МИФИ и Skillfactory. Это привычная магистратура, но учиться вы будете онлайн в удобное время.
За два года получите фундаментальные знания с фокусом на практику от преподавателей вуза и экспертов из крупных компаний. Освоите Data Science и Machine Learning с нуля до продвинутого уровня. Выберете направление — ML или MLOps. В финале получите диплом гособразца МИФИ.
При этом сохраняются все студенческие льготы, включая отсрочку от армии. А с господдержкой обучение может стоит от 198 р/месяц. Чтобы поступить, нужен диплом о высшем образовании или студенческий билет последних курсов вуза.
Подавайте заявку до 25 июля и получите бесплатно доступ к курсу на выбор стоимостью до 300 000 рублей, а также к курсу по математике для подготовки к вступительным испытаниям.
Реклама. ООО "СКИЛФЭКТОРИ". ИНН 9702009530. erid: 2W5zFGE6Hfn
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 OpenAI снова тормозит выпуск своей открытой модели — и, похоже, всерьёз её боится
Ожидаемый релиз новой open-source модели от OpenAI снова откладывается. Сэм Альтман заявил, что команде нужно больше времени для дополнительных тестов и анализа рисков:
> "Нам нужно время для дополнительных проверок и анализа высокорисковых областей" — написал он в X.
Модель собирались опубликовать на следующей неделе, но теперь сроки стали неопределёнными. Это уже второй перенос — в начале лета релиз тоже отложили, тогда на месяц.
Что делает этот релиз особенным:
▪ Это будет первая открытая модель от OpenAI за долгие годы
▪ Её можно будет скачать, запускать локально и адаптировать под свои задачи
▪ По слухам, она получит умения к рассуждению, а не просто генерацию текста
▪ Внутри — веса, доступные всем. Это не GPT-5, а реальный open-source
▪ Возможен гибридный режим — локальная работа + подключение к облачным сервисам OpenAI для сложных задач
Альтман намекает, что результат получился "неожиданный и потрясающий", а вице-президент по исследованиям Эйдан Кларк добавляет:
> "По возможностям модель феноменальна, но у нас высокая планка для открытых релизов."
Иными словами, OpenAI боится того, что у них получилось. После выкладки весов назад дороги не будет — любая компания, государство или энтузиаст сможет использовать и дорабатывать модель без ограничений. На фоне растущих опасений по поводу автономных ИИ, эта осторожность вполне объяснима.
Разработчикам остаётся ждать. Но если слухи подтвердятся, эта модель действительно может стать самой мощной из всех открытых, и перевернуть ландшафт ИИ-разработки.
Ожидаемый релиз новой open-source модели от OpenAI снова откладывается. Сэм Альтман заявил, что команде нужно больше времени для дополнительных тестов и анализа рисков:
> "Нам нужно время для дополнительных проверок и анализа высокорисковых областей" — написал он в X.
Модель собирались опубликовать на следующей неделе, но теперь сроки стали неопределёнными. Это уже второй перенос — в начале лета релиз тоже отложили, тогда на месяц.
Что делает этот релиз особенным:
▪ Это будет первая открытая модель от OpenAI за долгие годы
▪ Её можно будет скачать, запускать локально и адаптировать под свои задачи
▪ По слухам, она получит умения к рассуждению, а не просто генерацию текста
▪ Внутри — веса, доступные всем. Это не GPT-5, а реальный open-source
▪ Возможен гибридный режим — локальная работа + подключение к облачным сервисам OpenAI для сложных задач
Альтман намекает, что результат получился "неожиданный и потрясающий", а вице-президент по исследованиям Эйдан Кларк добавляет:
> "По возможностям модель феноменальна, но у нас высокая планка для открытых релизов."
Иными словами, OpenAI боится того, что у них получилось. После выкладки весов назад дороги не будет — любая компания, государство или энтузиаст сможет использовать и дорабатывать модель без ограничений. На фоне растущих опасений по поводу автономных ИИ, эта осторожность вполне объяснима.
Разработчикам остаётся ждать. Но если слухи подтвердятся, эта модель действительно может стать самой мощной из всех открытых, и перевернуть ландшафт ИИ-разработки.
👍4❤3😁3
🎉 On‑device LLM от Apple теперь доступен в React Native!
Команда Callstack представила в предварительном релизе пакет
Что доступно в превью:
• Генерация текста с адаптацией “на лету”
• Потоковый вывод ответов для интерактивности
• Структурированный JSON‑вывод с валидацией через Zod
• Совместимость с Vercel AI SDK — меняйте провайдеры и модели одной строкой
Почему это важно:
• 🔒 Конфиденциальность: весь AI работает локально — данные не покидают устройство
• 🚀 Мгновенный отклик без сети
• 🌐 Оффлайн‑режим всегда под рукой
Что под капотом:
• Модель на ~3 млрд параметров, оптимизированная для iOS
• Поддержка quantization и LoRA‑адаптеров для рерайта и суммаризации
Требования:
• React Native 0.80+ или Expo Canary с New Architecture
• Стабильный релиз — с выходом iOS 26
💡 Возможности:
• Умные редакторы текста
• Ассистенты с доступом к контенту устройства
• Интерактивные функции без интернета
В ближайших обновлениях:
• Более простой API
• Поддержка вызовов функций
• Расширение на Android
📌 https://www.callstack.com/blog/on-device-apple-llm-support-comes-to-react-native
Команда Callstack представила в предварительном релизе пакет
@react-native-ai/apple
, который позволяет использовать на устройствах Apple их Foundation Models прямо в React Native 📱 Что доступно в превью:
• Генерация текста с адаптацией “на лету”
• Потоковый вывод ответов для интерактивности
• Структурированный JSON‑вывод с валидацией через Zod
• Совместимость с Vercel AI SDK — меняйте провайдеры и модели одной строкой
Почему это важно:
• 🔒 Конфиденциальность: весь AI работает локально — данные не покидают устройство
• 🚀 Мгновенный отклик без сети
• 🌐 Оффлайн‑режим всегда под рукой
Что под капотом:
• Модель на ~3 млрд параметров, оптимизированная для iOS
• Поддержка quantization и LoRA‑адаптеров для рерайта и суммаризации
Требования:
• React Native 0.80+ или Expo Canary с New Architecture
• Стабильный релиз — с выходом iOS 26
💡 Возможности:
• Умные редакторы текста
• Ассистенты с доступом к контенту устройства
• Интерактивные функции без интернета
В ближайших обновлениях:
• Более простой API
• Поддержка вызовов функций
• Расширение на Android
📌 https://www.callstack.com/blog/on-device-apple-llm-support-comes-to-react-native
❤2🔥2
Forwarded from Machinelearning
LG AI Research представила EXAONE 4.0 (предыдущие версии) , свою ризонинг-модель. Разработчики называют ее «гибридным ИИ», и это не просто маркетинговый ход. По сути, это сплав классических языковых способностей с мощным механизмом логических рассуждений, унаследованным от предшественника EXAONE Deep.
Главная фишка — пошаговый подход к решению задач, основанный на выстраивании цепочки мыслей. Это позволяет модели хорошо справляться не только с текстами, но и со сложными областями вроде математики, науки и программирования.
В LG решили не размениваться на мелочи и не придумывать собственные удобные бенчмарки, а сразу вышли на глобальную арену.
Модель показала себя более чем достойно на самых сложных и актуальных тестах. Например, на GPQA-Diamond, который проверяет научные знания, она набрала 75.4 балла, а в математическом AIME 2025 — все 85.3. Судя по графикам, EXAONE 4.0 уверенно конкурирует как с открытыми, так и с передовыми закрытыми моделями на английском языке, а также демонстрирует отличные результаты на корейском и недавно добавленном испанском.
1. EXAONE 4.0 Professional (32B параметров) — заточена под медицину, право и другие сложные предметные области. Уже сдала 6 национальных сертификационных экзаменов в Корее.
2. EXAONE 4.0 On‑Device (1.2B параметров) — работает офлайн прямо на устройстве. При этом она вдвое компактнее, но быстрее предыдущей версии. Идеально для задач с требованиями к приватности и скорости отклика.
Появилась модель, которая решает больше edge‑кейсов, чем Qwen‑235B, но при этом требует в 7 раз меньше памяти.
Еще:
- Обучена на 14T токенах.
- Поддерживает Model Context Protocol (MCP)
- Поддерживает**Function Calling** — интеграция с внешними инструментами и API прямо через LLM.
@ai_machinelearning_big_data
#AI #ML #LLM #EXAONE #LG
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🛠 Вышел новый генератор CAD‑моделей по чертежам — и он реально работает!
GenCAD умеет превращать чертежи в 3D‑модели и сразу генерирует параметрический CAD‑код. Для сложных и детализированных объектов он пока не подойдет, но с простыми деталями вроде винтиков и креплений справляется отлично.
📎 Идеально для быстрого прототипирования стандартных элементов.
📄 Paper: https://openreview.net/pdf?id=e817c1wEZ6
🔗 Website: https://gencad.github.io
💻 Code: https://github.com/ferdous-alam/GenCAD
GenCAD умеет превращать чертежи в 3D‑модели и сразу генерирует параметрический CAD‑код. Для сложных и детализированных объектов он пока не подойдет, но с простыми деталями вроде винтиков и креплений справляется отлично.
📎 Идеально для быстрого прототипирования стандартных элементов.
📄 Paper: https://openreview.net/pdf?id=e817c1wEZ6
🔗 Website: https://gencad.github.io
💻 Code: https://github.com/ferdous-alam/GenCAD
👍4❤2🔥2😁1
🧪 **Stanford и Google представили Marin** — первую полностью открытую LLM, разработанную на JAX
Новая модель Marin — результат сотрудничества Stanford University и команды Google AI. Это первая полностью open-source модель, обученная с нуля на JAX, и доступна под лицензией Apache 2.0.
🚀 Что внутри:
— JAX
— Слияние вычислений потерь и градиентов для ускорения
— Встроен Splash Attention, чтобы нагрузка шла напрямую на ускорители, а не простаивала в ожидании Python
Marin — не просто ещё одна LLM, а референсный стек с открытой «кухней» для обучения больших моделей на JAX.
🟠 Github: https://github.com/stanford-crfm/marin
🟠 Блог: https://developers.googleblog.com/en/stanfords-marin-foundation-model-first-fully-open-model-developed-using-jax/
🟠 Гайд: https://docs.jax.dev/en/latest/quickstart.html
@bigdatai
Новая модель Marin — результат сотрудничества Stanford University и команды Google AI. Это первая полностью open-source модель, обученная с нуля на JAX, и доступна под лицензией Apache 2.0.
🚀 Что внутри:
— JAX
jit
объединяет forward-backward-update в один ядро — Слияние вычислений потерь и градиентов для ускорения
— Встроен Splash Attention, чтобы нагрузка шла напрямую на ускорители, а не простаивала в ожидании Python
Marin — не просто ещё одна LLM, а референсный стек с открытой «кухней» для обучения больших моделей на JAX.
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2🥰1
🔒 LLM Guard — инструмент для защиты взаимодействий с большими языковыми моделями. Этот проект помогает фильтровать вредоносные запросы, предотвращать утечки данных и противостоять инъекциям в промпты.
Система включает сканеры для анализа как входящих запросов, так и исходящих ответов, включая проверку токсичности, чувствительных данных и даже фактологической согласованности. Подходит для интеграции в продакшн-среды.
🤖 GitHub
@bigdatai
Система включает сканеры для анализа как входящих запросов, так и исходящих ответов, включая проверку токсичности, чувствительных данных и даже фактологической согласованности. Подходит для интеграции в продакшн-среды.
🤖 GitHub
@bigdatai
👍4❤2