Meta представила передовые AR-очки Orion с искусственным интеллектом
Еще одна интересная новость последних дней: Meta* анонсировала Orion — самые инновационные очки дополненной реальности (AR), которые сочетают стиль обычных очков с возможностями дополненной реальности и искусственного интеллекта.
Ключевые особенности:
Виртуальный Голографический дисплей и ИИ: Orion оснащены контекстным ИИ (Meta AI), который распознает окружающие объекты и предлагает полезные подсказки. Например, ИИ может предложить рецепт на основе продуктов в вашем холодильнике или помочь в управлении цифровым календарем.
Интеграция с мессенджерами и видеозвонками: С помощью ИИ можно отправлять сообщения в WhatsApp и Messenger, а также принимать видеозвонки, не доставая телефон. И всё это — в режиме hands-free.
Стильный и лёгкий дизайн: Очки выглядят как обычные с прозрачными линзами, что позволяет сохранять зрительный контакт и быть полностью вовлечённым в происходящее вокруг.
Хотя Orion — это пока не массовый продукт, Meta активно тестирует очки среди сотрудников и избранных пользователей, чтобы в будущем выпустить потребительскую версию.
Ставь лайк, если тоже узнал музыку из Mass Effect в рекламном ролике очков ☕️
*Meta - Признана экстремистской организацией и запрещена на территории РФ
#ar #vr #ainews
Еще одна интересная новость последних дней: Meta* анонсировала Orion — самые инновационные очки дополненной реальности (AR), которые сочетают стиль обычных очков с возможностями дополненной реальности и искусственного интеллекта.
Ключевые особенности:
Виртуальный Голографический дисплей и ИИ: Orion оснащены контекстным ИИ (Meta AI), который распознает окружающие объекты и предлагает полезные подсказки. Например, ИИ может предложить рецепт на основе продуктов в вашем холодильнике или помочь в управлении цифровым календарем.
Интеграция с мессенджерами и видеозвонками: С помощью ИИ можно отправлять сообщения в WhatsApp и Messenger, а также принимать видеозвонки, не доставая телефон. И всё это — в режиме hands-free.
Стильный и лёгкий дизайн: Очки выглядят как обычные с прозрачными линзами, что позволяет сохранять зрительный контакт и быть полностью вовлечённым в происходящее вокруг.
Хотя Orion — это пока не массовый продукт, Meta активно тестирует очки среди сотрудников и избранных пользователей, чтобы в будущем выпустить потребительскую версию.
*Meta - Признана экстремистской организацией и запрещена на территории РФ
#ar #vr #ainews
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
AI новости последней недели: Вышел Flux 1.1 [pro], OpenAI анонсировала Realtime API для Voice Engine
Flux 1.1
Пока что доступна только Pro версия, речи о dev версии пока не идет. Что же касается Pro версии, то на данный момент она является лучшей моделью для генерации изображений, при этом генерация изображения происходит в несколько раз быстрее, по сравнению с прошлой версией.
Протестировать можно тут. Также бесплатно (пока что) и быстро протестировать модель можно на сервисе BlinkShot.
Realtime API
Realtime API позволяет разработчикам внедрить в свои продукты speech-to-speech, который будет работать с минимальной задержкой, по сравнению с текущими известными решениями. По факту, это позволяет использовать ряд возможностей из нового VoiceEngine, создавая продвинутых голосовых ассистентов. Новый функционал доступен в рамках модели gpt-4o-audio-preview. C документацией уже можно ознакомиться тут.
Цена использования API:
Текст: 5$/1M токенов на вход и 20$/1M токенов на выходе
Аудио: 100$/1M на вход и 200$/1M токенов на выход, или же 0.06$ за 1 минуту аудио на входе и 0.24$ за минуту на выходе.
Пока что для работы будет поддерживаться текст и аудио, но в будущем планируется также добавить поддержку видео. Также планируется выпустить поддержку realtime api на основе gpt-4o-mini
#ainews #chatgpt #flux #txt2img
Neurogen - подпишись, тут рассказывают про нейросети
Flux 1.1
Пока что доступна только Pro версия, речи о dev версии пока не идет. Что же касается Pro версии, то на данный момент она является лучшей моделью для генерации изображений, при этом генерация изображения происходит в несколько раз быстрее, по сравнению с прошлой версией.
Протестировать можно тут. Также бесплатно (пока что) и быстро протестировать модель можно на сервисе BlinkShot.
Realtime API
Realtime API позволяет разработчикам внедрить в свои продукты speech-to-speech, который будет работать с минимальной задержкой, по сравнению с текущими известными решениями. По факту, это позволяет использовать ряд возможностей из нового VoiceEngine, создавая продвинутых голосовых ассистентов. Новый функционал доступен в рамках модели gpt-4o-audio-preview. C документацией уже можно ознакомиться тут.
Цена использования API:
Текст: 5$/1M токенов на вход и 20$/1M токенов на выходе
Аудио: 100$/1M на вход и 200$/1M токенов на выход, или же 0.06$ за 1 минуту аудио на входе и 0.24$ за минуту на выходе.
Пока что для работы будет поддерживаться текст и аудио, но в будущем планируется также добавить поддержку видео. Также планируется выпустить поддержку realtime api на основе gpt-4o-mini
#ainews #chatgpt #flux #txt2img
Neurogen - подпишись, тут рассказывают про нейросети
OpenAI представила Sora Turbo — мощную модель для генерации видео
Компания OpenAI объявила о запуске Sora Turbo, модели для генерации видео на основе текста. Новый инструмент позволяет создавать видеоролики в разрешении до 1080p и продолжительностью до 20 секунд. Пользователи могут использовать текстовые описания, изображения и видео, а также настроить отдельные кадры через специальный интерфейс.
Модель доступна подписчикам ChatGPT Plus и Pro.
Для подписчиков Plus доступно 20 генераций в месяц, для уровня Pro - без ограничений.
Из ограничений, модель недоступна в странах, где официально не работает ChatGPT, а также в странах ЕС и Великобритании из-за нюансов в законодательстве.
Начать работать с SORA можно тут.
#sora #txt2video #ainews
Компания OpenAI объявила о запуске Sora Turbo, модели для генерации видео на основе текста. Новый инструмент позволяет создавать видеоролики в разрешении до 1080p и продолжительностью до 20 секунд. Пользователи могут использовать текстовые описания, изображения и видео, а также настроить отдельные кадры через специальный интерфейс.
Модель доступна подписчикам ChatGPT Plus и Pro.
Для подписчиков Plus доступно 20 генераций в месяц, для уровня Pro - без ограничений.
Из ограничений, модель недоступна в странах, где официально не работает ChatGPT, а также в странах ЕС и Великобритании из-за нюансов в законодательстве.
Начать работать с SORA можно тут.
#sora #txt2video #ainews
⚡️ Codestral 25.01: Новый стандарт автодополнения кода в ИИ ⚡️
В мире искусственного интеллекта продолжаются значимые прорывы, и одним из них стало обновление модели Codestral 25.01 от команды Mistral AI. Данная модель представляет собой мощное решение для автоматической генерации и дополнения кода, устанавливая новые стандарты точности и производительности.
### Ключевые особенности Codestral 25.01
🔹 Повышенная скорость: Благодаря оптимизированной архитектуре и улучшенному токенизатору, модель выполняет задачи автодополнения в 2 раза быстрее своего предшественника.
🔹 Поддержка более 80 языков программирования: Python, JavaScript, SQL, C++, Java, Bash и многие другие.
🔹 Точность в задачах FIM: Codestral 25.01 значительно превосходит конкурентов в задачах дополнения кода внутри существующих блоков (fill-in-the-middle).
### Результаты тестирования
Модель продемонстрировала выдающиеся результаты в ряде тестов:
- В тестах HumanEval FIM средняя точность достигла 95.3%, что делает её лидером среди всех моделей для автодополнения.
- В задачах на дополнение кода в Python, JavaScript и Java она превосходит ближайших конкурентов, включая Codellama и DeepSeek.
### Доступность
Codestral 25.01 уже доступна разработчикам через IDE-плагины, такие как Continue для VS Code и JetBrains. Для корпоративных клиентов предлагается локальное развертывание модели. Кроме того, API модели можно использовать на платформах Google Cloud Vertex AI, а в ближайшем будущем — на Amazon Bedrock.
### Зачем это нужно разработчикам?
Современные разработчики сталкиваются с большими объёмами рутинной работы: исправлением ошибок, написанием тестов и рефакторингом кода. Codestral 25.01 позволяет существенно сократить время на выполнение этих задач, сосредоточив внимание на более сложных и творческих аспектах разработки.
### Мнение экспертов
Тай Данн, сооснователь платформы Continue, подчеркнул: *«Для ассистентов кода автодополнение является ключевой функцией. Codestral 25.01 представляет собой значительный шаг вперёд, обеспечивая более точные и быстрые рекомендации. Именно поэтому мы рекомендуем её всем разработчикам».*
Codestral 25.01 — это инструмент, который меняет подход к программированию, делая процесс разработки более продуктивным и эффективным.
Попробовать модель можно тут: https://chat.mistral.ai/chat
#llm #code #ainews
В мире искусственного интеллекта продолжаются значимые прорывы, и одним из них стало обновление модели Codestral 25.01 от команды Mistral AI. Данная модель представляет собой мощное решение для автоматической генерации и дополнения кода, устанавливая новые стандарты точности и производительности.
### Ключевые особенности Codestral 25.01
🔹 Повышенная скорость: Благодаря оптимизированной архитектуре и улучшенному токенизатору, модель выполняет задачи автодополнения в 2 раза быстрее своего предшественника.
🔹 Поддержка более 80 языков программирования: Python, JavaScript, SQL, C++, Java, Bash и многие другие.
🔹 Точность в задачах FIM: Codestral 25.01 значительно превосходит конкурентов в задачах дополнения кода внутри существующих блоков (fill-in-the-middle).
### Результаты тестирования
Модель продемонстрировала выдающиеся результаты в ряде тестов:
- В тестах HumanEval FIM средняя точность достигла 95.3%, что делает её лидером среди всех моделей для автодополнения.
- В задачах на дополнение кода в Python, JavaScript и Java она превосходит ближайших конкурентов, включая Codellama и DeepSeek.
### Доступность
Codestral 25.01 уже доступна разработчикам через IDE-плагины, такие как Continue для VS Code и JetBrains. Для корпоративных клиентов предлагается локальное развертывание модели. Кроме того, API модели можно использовать на платформах Google Cloud Vertex AI, а в ближайшем будущем — на Amazon Bedrock.
### Зачем это нужно разработчикам?
Современные разработчики сталкиваются с большими объёмами рутинной работы: исправлением ошибок, написанием тестов и рефакторингом кода. Codestral 25.01 позволяет существенно сократить время на выполнение этих задач, сосредоточив внимание на более сложных и творческих аспектах разработки.
### Мнение экспертов
Тай Данн, сооснователь платформы Continue, подчеркнул: *«Для ассистентов кода автодополнение является ключевой функцией. Codestral 25.01 представляет собой значительный шаг вперёд, обеспечивая более точные и быстрые рекомендации. Именно поэтому мы рекомендуем её всем разработчикам».*
Codestral 25.01 — это инструмент, который меняет подход к программированию, делая процесс разработки более продуктивным и эффективным.
Попробовать модель можно тут: https://chat.mistral.ai/chat
#llm #code #ainews
Могучий синий кит Китай ронять Запад бесплатно
Последние несколько дней с момента релиза новой модели Deepseek R1 примерно такой оборот событий набирает новостной фон.
Хронология событий после релиза DeepSeek-R1 (20–29 января 2025):
1. 20 января:
- Официальный релиз DeepSeek-R1 — модели с 660B параметров, сравнимой по производительности с OpenAI o1 в задачах математики, кода и естественного языка. Ключевые особенности:
- Использование усиленного обучения (RL) вместо классического SFT, что снизило зависимость от размеченных данных .
- Открытый код (MIT License) и дистилляция 6 малых моделей (1.5B–70B), включая версии для Qwen и Llama, превосходящие OpenAI o1-mini .
- Стоимость API в 27–55 раз ниже, чем у o1 (1–4 RMB за млн входных токенов, 16 — за выходные) .
2. 21 января:
- Публикация технических деталей:
- R1-Zero — базовая версия, обученная без человеческих данных, достигла 71% на AIME 2024 после самооптимизации через RL .
- Сравнение с Kimi k1.5 (128K контекстное окно): DeepSeek-R1 сильнее в логике, Kimi — в мультимодальности .
3. 22 января:
- Обсуждение в сообществе:
- «RL is all you need» — тезис DeepSeek, бросивший вызов традиционным подходам .
- Модель получила прозвище «AlphaGo для открытых LLM» за способность к самообучению .
4. 23 января:
- Запуск «цепочки рассуждений» (Chain-of-Thought) в API: пользователи могут видеть логику модели перед финальным ответом .
- Meta начинает внутренние эксперименты по воспроизведению R1, опасаясь потери лидерства .
5. 25 января:
- DeepSeek-R1 занимает 1-е место в рейтинге Arena (стиль и логика), обойдя OpenAI o1 .
- Акции NVIDIA падают на 3,12% на фоне дискуссий о снижении спроса на GPU из-за эффективности R1 .
6. 26 января:
- Реакция Запада:
- Scale AI CEO Александр Ванг называет R1 «переломным моментом» в гонке ИИ .
- Марк Андриссен хвалит открытость модели как «дар миру» .
- Meta анонсирует ускорение разработки Llama 4 и инвестиции в 1,3 млн GPU .
7. 28–29 января:
- Аналитики (Morgan Stanley, UBS) прогнозируют волну инноваций благодаря снижению стоимости ИИ-разработки .
- Влияние на рынок: сомнения в устойчивости оценки американских AI-стартапов, чьи модели дороже и закрытее .
В целом, можно сделать вывод, что DeepSeek-R1 не просто «догнал» OpenAI — он изменил правила игры через открытость и экономическую эффективность. Это заставило Запад пересмотреть стратегии, а инвесторов — усомниться в монополии США на ИИ. Главный урок: «Китай работает, пока Америка отдыхает» .
Партия давать +100 социальный рейтинг за комментарий про силу Синий Китайский Кит над Запад 😺
#ai #llm #ainews
Последние несколько дней с момента релиза новой модели Deepseek R1 примерно такой оборот событий набирает новостной фон.
Хронология событий после релиза DeepSeek-R1 (20–29 января 2025):
1. 20 января:
- Официальный релиз DeepSeek-R1 — модели с 660B параметров, сравнимой по производительности с OpenAI o1 в задачах математики, кода и естественного языка. Ключевые особенности:
- Использование усиленного обучения (RL) вместо классического SFT, что снизило зависимость от размеченных данных .
- Открытый код (MIT License) и дистилляция 6 малых моделей (1.5B–70B), включая версии для Qwen и Llama, превосходящие OpenAI o1-mini .
- Стоимость API в 27–55 раз ниже, чем у o1 (1–4 RMB за млн входных токенов, 16 — за выходные) .
2. 21 января:
- Публикация технических деталей:
- R1-Zero — базовая версия, обученная без человеческих данных, достигла 71% на AIME 2024 после самооптимизации через RL .
- Сравнение с Kimi k1.5 (128K контекстное окно): DeepSeek-R1 сильнее в логике, Kimi — в мультимодальности .
3. 22 января:
- Обсуждение в сообществе:
- «RL is all you need» — тезис DeepSeek, бросивший вызов традиционным подходам .
- Модель получила прозвище «AlphaGo для открытых LLM» за способность к самообучению .
4. 23 января:
- Запуск «цепочки рассуждений» (Chain-of-Thought) в API: пользователи могут видеть логику модели перед финальным ответом .
- Meta начинает внутренние эксперименты по воспроизведению R1, опасаясь потери лидерства .
5. 25 января:
- DeepSeek-R1 занимает 1-е место в рейтинге Arena (стиль и логика), обойдя OpenAI o1 .
- Акции NVIDIA падают на 3,12% на фоне дискуссий о снижении спроса на GPU из-за эффективности R1 .
6. 26 января:
- Реакция Запада:
- Scale AI CEO Александр Ванг называет R1 «переломным моментом» в гонке ИИ .
- Марк Андриссен хвалит открытость модели как «дар миру» .
- Meta анонсирует ускорение разработки Llama 4 и инвестиции в 1,3 млн GPU .
7. 28–29 января:
- Аналитики (Morgan Stanley, UBS) прогнозируют волну инноваций благодаря снижению стоимости ИИ-разработки .
- Влияние на рынок: сомнения в устойчивости оценки американских AI-стартапов, чьи модели дороже и закрытее .
В целом, можно сделать вывод, что DeepSeek-R1 не просто «догнал» OpenAI — он изменил правила игры через открытость и экономическую эффективность. Это заставило Запад пересмотреть стратегии, а инвесторов — усомниться в монополии США на ИИ. Главный урок: «Китай работает, пока Америка отдыхает» .
#ai #llm #ainews
Please open Telegram to view this post
VIEW IN TELEGRAM