Forwarded from vc.ru
This media is not supported in your browser
VIEW IN TELEGRAM
Запрещённая в России Meta провела демонстрацию функций «умных» очков Ray-Ban, но не всё прошло гладко: не получилось созвониться по видео, а голосовой помощник не смог подсказать рецепт соуса. В комментариях шутили над грядущими увольнениями.
Однако некоторых зрителей впечатлил набор сообщений с помощью «нейробраслета» и субтитры в реальном времени, которые показать всё-таки удалось
vc.ru/tech/2222622
Однако некоторых зрителей впечатлил набор сообщений с помощью «нейробраслета» и субтитры в реальном времени, которые показать всё-таки удалось
vc.ru/tech/2222622
🔥4👍1
#unrealneural
SGS-1 от Spectral Labs
Генератор CAD 3D-геометрии
https://www.spectrallabs.ai/research/SGS-1
SGS-1 от Spectral Labs
Генератор CAD 3D-геометрии
https://www.spectrallabs.ai/research/SGS-1
👍2⚡1
#unrealneural
Autodesk представляет новую категорию технологий - нейронные САПР (fundamental CAD models), которые используют генеративный ИИ для понимания и создания геометрии. Это следующий шаг после параметрических САПР, почти не менявшихся 40 лет, и альтернатива простому объединению LLM с классическими инструментами.
Autodesk утверждает: будущее проектирования - это нейронные САПР, которые соединяют язык, эскиз, данные и производство в единую систему.
https://adsknews.autodesk.com/en/news/upcoming-3d-generative-ai-foundation-models/
Autodesk представляет новую категорию технологий - нейронные САПР (fundamental CAD models), которые используют генеративный ИИ для понимания и создания геометрии. Это следующий шаг после параметрических САПР, почти не менявшихся 40 лет, и альтернатива простому объединению LLM с классическими инструментами.
Autodesk утверждает: будущее проектирования - это нейронные САПР, которые соединяют язык, эскиз, данные и производство в единую систему.
https://adsknews.autodesk.com/en/news/upcoming-3d-generative-ai-foundation-models/
👍8⚡2🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
#Эксперименты #unrealneural #ЛабораторияИИ #AILAB
Генерация CAD геометрии по изометрическому изображению
Генерация CAD геометрии по изометрическому изображению
🔥9❤4⚡1😱1🤣1
Forwarded from AM Live
ИИ уже в системе. И он пришёл не спрашивать
Он не требует зарплату. Не уходит в отпуск. Не просит инструкций. Но всё равно делает ошибки. И иногда — масштабные.
В прямом эфире AM Live обсудили, как именно искусственный интеллект уже встроен в ИТ-процессы российских компаний, какие задачи выполняет, где действительно помогает, а где пока создаёт больше проблем, чем пользы.
Говорили про:
⚡️ Реальные сценарии применения ML и GenAI в автоматизации инфраструктуры, аналитике, управлении облачными платформами и генерации кода
⚡️ То, что работает уже сейчас, а не просто звучит модно
⚡️ Как ИИ влияет на рынок труда: кого уже можно заменить, а какие роли трансформируются
⚡️ Этические и юридические риски, которые пока не регулируются, но уже сказываются на бизнесе
⚡️ Будущее технологий ИИ в ИТ — что будет происходить в ближайшие 2–3 года и как к этому готовиться
Обсуждали примеры из российских компаний, влияние ИИ на кадровый дефицит и новые подходы к управлению ИТ-командами. Эксперты честно говорили о барьерах: от технических ограничений до пробелов в законодательстве.
📺 Смотрите запись. Потому что ИИ уже рядом. И вы должны понимать, что он умеет — и что пока только обещает.
📺 VK Видео
📺 YouTube
📺 RuTube
Он не требует зарплату. Не уходит в отпуск. Не просит инструкций. Но всё равно делает ошибки. И иногда — масштабные.
В прямом эфире AM Live обсудили, как именно искусственный интеллект уже встроен в ИТ-процессы российских компаний, какие задачи выполняет, где действительно помогает, а где пока создаёт больше проблем, чем пользы.
Говорили про:
Обсуждали примеры из российских компаний, влияние ИИ на кадровый дефицит и новые подходы к управлению ИТ-командами. Эксперты честно говорили о барьерах: от технических ограничений до пробелов в законодательстве.
📺 Смотрите запись. Потому что ИИ уже рядом. И вы должны понимать, что он умеет — и что пока только обещает.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1🔥1
Forwarded from Наука, Техника и нейровайб
Компания Илона Маска Neuralink в октябре начнёт испытывать имплант, который переводит мысли в текст. Технология, считают создатели, откроет новые возможности для людей с нарушением речи. Устройство планируется тестировать на людях с тяжёлыми заболеваниями, а к 2030 году внедрять в организм здоровых людей. Конечной целью в компании называют «создание потребительских технологий».
⚡6👍5😁1
#unrealneural
А вот и Autocad + MCP + Claude
Процесс черчения с помощью Claude кода и создание спецификации с помощью ChatGPT5. Наверняка скоро у всех автодеск продуктов появится официальные тулзы со связками LLM. Но что вот интересно: какую именно модель они там будут использовать? Предполагаю это будет что-то свое на базе Qwen 🤷🏻♂️🤷🏻♂️🤷🏻♂️ или нет 😃
А вот и Autocad + MCP + Claude
Процесс черчения с помощью Claude кода и создание спецификации с помощью ChatGPT5. Наверняка скоро у всех автодеск продуктов появится официальные тулзы со связками LLM. Но что вот интересно: какую именно модель они там будут использовать? Предполагаю это будет что-то свое на базе Qwen 🤷🏻♂️🤷🏻♂️🤷🏻♂️ или нет 😃
🔥6👍2
Forwarded from Data Secrets
Grok 4 Fast: уровень Gemini 2.5 Pro в 20 раз дешевле
xAI выпустили Grok 4 Fast. Моделька просто поражает соотношением цены, скорости и качества. Смотрите сами:
– Уровень Gemini 2.5 Pro и Claude 4.1 Opus на тестах, контекст 2М токенов, гибридный ризонинг
– Более 340 токенов в секунду на инференсе
– Цены: $0.20/M input, $0.50/M output. У той же Gemini 2.5 Pro, для сравнения: in $1.25 / out $10.
При этом, помимо понижения цены, модель еще и более эффективна по использованию токенов. Например, аналитики из Artificial Analysis пишут, что для решения их теста Grok’у понадобилось всего 61М токенов, в то время как Gemini 2.5 Pro сожгла 93М. Принимая это во внимание, получается, что Grok 4 Fast примерно в 25 раз дешевле.
Выглядит как то, что точно надо пробовать. Уже доступно в API, у провайдеров и бесплатно в чате
Блогпост
xAI выпустили Grok 4 Fast. Моделька просто поражает соотношением цены, скорости и качества. Смотрите сами:
– Уровень Gemini 2.5 Pro и Claude 4.1 Opus на тестах, контекст 2М токенов, гибридный ризонинг
– Более 340 токенов в секунду на инференсе
– Цены: $0.20/M input, $0.50/M output. У той же Gemini 2.5 Pro, для сравнения: in $1.25 / out $10.
При этом, помимо понижения цены, модель еще и более эффективна по использованию токенов. Например, аналитики из Artificial Analysis пишут, что для решения их теста Grok’у понадобилось всего 61М токенов, в то время как Gemini 2.5 Pro сожгла 93М. Принимая это во внимание, получается, что Grok 4 Fast примерно в 25 раз дешевле.
Выглядит как то, что точно надо пробовать. Уже доступно в API, у провайдеров и бесплатно в чате
Блогпост
🔥2❤1👍1
#unrealneural
Grok 4 Fast
Мультимодальная модель с контекстным окном 2М, которая устанавливает новый стандарт для экономически эффективного ИИ
Grok 4 Fast
Мультимодальная модель с контекстным окном 2М, которая устанавливает новый стандарт для экономически эффективного ИИ
⚡3👍3👌2
Forwarded from Data Secrets
Media is too big
VIEW IN TELEGRAM
«Я хочу себе частную LLM»: в сообществе внезапно завирусился момент из интервью Мэттью Макконахи
Пост в X с цитатой залетел на миллионы просмотров, и мнения разделились максимально (кто бы подумал, что такое количество споров вызовет голивудский актер):
– Одни говорят, что такое уже давно есть и называется Notebook LM.
– Кто-то утверждает, что NotebookLM – совсем не то, а Мэттью озвучил идею, о которой они думали и мечтали годами.
– Третьи взывают к здравому смыслу и утверждают, что создать такую LLM технически невозможно, и Макконахи абсолютно не понимает, о чем говорит (откровенно говоря, он и не обязан).
Ближе всего к правде – последнее. Конечно, мы не знаем, что имел в виду актер. Может быть, NotebookLM и правда есть то, что он описывает.
Но если нет, то пока что такая сеть может существовать только в виде вашего собственного мозга. L в аббревиатуре LLM – это Large. Чтобы трансформер заговорил, ему нужны громадные объемы текста. Вряд ли у кого-либо найдется столько любимых книг, заметок и статей. Так что прости, Мэттью, такого еще не изобрели.
Чтобы быть царем зверей, мало вести себя по царски. Надо иметь собственную LLM🚬
«Мне нужна частная LLM, содержащая только мои любимые книги, мои заметки и статьи. Чтобы я мог спросить у нее что-нибудь, и она отвечала, исходя исключительно из этой информации, без влияния внешнего мира. И по мере разговоров она бы узнавала обо мне еще больше»
Пост в X с цитатой залетел на миллионы просмотров, и мнения разделились максимально (кто бы подумал, что такое количество споров вызовет голивудский актер):
– Одни говорят, что такое уже давно есть и называется Notebook LM.
– Кто-то утверждает, что NotebookLM – совсем не то, а Мэттью озвучил идею, о которой они думали и мечтали годами.
– Третьи взывают к здравому смыслу и утверждают, что создать такую LLM технически невозможно, и Макконахи абсолютно не понимает, о чем говорит (откровенно говоря, он и не обязан).
Ближе всего к правде – последнее. Конечно, мы не знаем, что имел в виду актер. Может быть, NotebookLM и правда есть то, что он описывает.
Но если нет, то пока что такая сеть может существовать только в виде вашего собственного мозга. L в аббревиатуре LLM – это Large. Чтобы трансформер заговорил, ему нужны громадные объемы текста. Вряд ли у кого-либо найдется столько любимых книг, заметок и статей. Так что прости, Мэттью, такого еще не изобрели.
Чтобы быть царем зверей, мало вести себя по царски. Надо иметь собственную LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🤔5👍3🤓1
#unrealneural
200-страничная работа по LLM: ключевые выводы.
Предобучение: ИИ изучает данные через неконтролируемое и самоконтролируемое обучение. Архитектуры: кодировщики, декодеры, BERT, Трансформеры.
Генеративные модели: GPT-подобные модели для творчества. Тонкая настройка и RLHF обеспечивают специализацию и безопасность.
Промпт-инжиниринг: Контекстное обучение, цепочка мыслей и RAG для точных ответов.
Выравнивание ИИ: Тонкая настройка и RLHF для соответствия человеческим намерениям.
https://arxiv.org/pdf/2501.09223
200-страничная работа по LLM: ключевые выводы.
Предобучение: ИИ изучает данные через неконтролируемое и самоконтролируемое обучение. Архитектуры: кодировщики, декодеры, BERT, Трансформеры.
Генеративные модели: GPT-подобные модели для творчества. Тонкая настройка и RLHF обеспечивают специализацию и безопасность.
Промпт-инжиниринг: Контекстное обучение, цепочка мыслей и RAG для точных ответов.
Выравнивание ИИ: Тонкая настройка и RLHF для соответствия человеческим намерениям.
https://arxiv.org/pdf/2501.09223
⚡3👍2
#unrealneural
Исследователи Apple представляют AToken
Первый унифицированный визуальный токенизатор для высокоточной реконструкции и семантического понимания изображений, видео и 3D-ресурсов.
https://huggingface.co/papers/2509.14476
AToken, как универсальный токенизатор, который объединяет обработку изображений, видео и 3D-объектов в одном 4D-пространстве, обеспечивает точную реконструкцию и понимание. Он использует трансформерную архитектуру и устойчивое обучение без состязательности, поддерживая создание контента и анализ данных.
AToken может продвинуть индустрию ИИ, упрощая разработку мультимодальных систем и снижая затраты на создание универсальных моделей.
Исследователи Apple представляют AToken
Первый унифицированный визуальный токенизатор для высокоточной реконструкции и семантического понимания изображений, видео и 3D-ресурсов.
https://huggingface.co/papers/2509.14476
AToken, как универсальный токенизатор, который объединяет обработку изображений, видео и 3D-объектов в одном 4D-пространстве, обеспечивает точную реконструкцию и понимание. Он использует трансформерную архитектуру и устойчивое обучение без состязательности, поддерживая создание контента и анализ данных.
AToken может продвинуть индустрию ИИ, упрощая разработку мультимодальных систем и снижая затраты на создание универсальных моделей.
🤯5👍3💩1
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
DeepSeek-V3.1-Terminus доступен на Hugging Face
Что нового?
Прощай, путаница в тексте🙃 Больше никаких раздражающих миксов из китайского, русского и английского, и странных символов, которые выглядят как сбой матрицы.
Режим агента 🔥 Кодовый агент и поисковик прокачали до уровня, где они не просто работают, а реально выручают. Пишешь код или ищешь инфу, модель теперь справляется как профи, быстро и по делу 🤝
Сразу затестил на Anycoder. Все ссылки и промпт в комментах.
DeepSeek-V3.1-Terminus доступен на Hugging Face
Что нового?
Прощай, путаница в тексте🙃 Больше никаких раздражающих миксов из китайского, русского и английского, и странных символов, которые выглядят как сбой матрицы.
Режим агента 🔥 Кодовый агент и поисковик прокачали до уровня, где они не просто работают, а реально выручают. Пишешь код или ищешь инфу, модель теперь справляется как профи, быстро и по делу 🤝
Сразу затестил на Anycoder. Все ссылки и промпт в комментах.
🔥5❤1⚡1👍1
#unrealneural #нейроразбор
Microsoft представляет нейронку латентного зонирования 🤗
Вышла статья про Latent Zoning Network (LZN), попробуем разобраться.
Вроде как предлагается единая модель, которая объединяет генерацию данных, представление и классификацию через общее скрытое пространство, где энкодеры и декодеры решают разные задачи. Но при этом результаты пока показаны на простых датасетах (CIFAR10, ImageNet), и неясно, как она справится с более сложными данными. 🤷🏻♂️
Это не проходная статья, так как LZN упрощает архитектуру, улучшает генерацию (FID 2.76 -> 2.59 на CIFAR10), превосходит MoCo и SimCLR в представлении данных и предлагает универсальный подход с открытым кодом.
https://huggingface.co/microsoft/latent-zoning-networks
Microsoft представляет нейронку латентного зонирования 🤗
Вышла статья про Latent Zoning Network (LZN), попробуем разобраться.
Вроде как предлагается единая модель, которая объединяет генерацию данных, представление и классификацию через общее скрытое пространство, где энкодеры и декодеры решают разные задачи. Но при этом результаты пока показаны на простых датасетах (CIFAR10, ImageNet), и неясно, как она справится с более сложными данными. 🤷🏻♂️
Это не проходная статья, так как LZN упрощает архитектуру, улучшает генерацию (FID 2.76 -> 2.59 на CIFAR10), превосходит MoCo и SimCLR в представлении данных и предлагает универсальный подход с открытым кодом.
https://huggingface.co/microsoft/latent-zoning-networks
⚡3👍1🤗1
AI LAB
#unrealneural #нейроразбор Microsoft представляет нейронку латентного зонирования 🤗 Вышла статья про Latent Zoning Network (LZN), попробуем разобраться. Вроде как предлагается единая модель, которая объединяет генерацию данных, представление и классификацию…
Если ничего непонятно 😃😃😃, то LZN - это нейронка, которая сразу умеет рисовать картинки, понимать, что на них, и говорить, что это за картинка. Обычно для этого нужны разные нейросети, а тут всё в одной! Она превращает картинки, слова и метки в точки в "волшебной комнате" (латентное пространство) и обратно. Круто, что работает лучше некоторых старых методов, и код открыт.
👍4❤2😱2