Технозаметки Малышева
8.63K subscribers
3.83K photos
1.43K videos
40 files
4.01K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from AI x Artem
Большая победа 🏆🏆

Наши ребята на олимпиаде IOAI, которая проходила в Китае, заняли - 6 золотых, 1 серебро, и 1 бронзу - буквально все ребята стали медалистами.

В командном зачете одной из команд удалось обойти 80 команд из других стран и занять 2 место, уступив всего на 0.1 очко.

Поздравляю ребят от всей души🔥😎
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥53🏆114🆒2❤‍🔥1
Google Finance тестирует новые AI-функции

Google интегрирует в Finance возможности своей Gemini AI для улучшения финансовой аналитики.

Новые функции включают умные исследовательские инструменты, продвинутые графики и ленту новостей в реальном времени с ИИ-анализом.

Платформа будет использовать машинное обучение для контекстного анализа финансовых данных и предоставления персонализированных инсайтов пользователям.

Рынок финтех-решений с ИИ ожидают рост до $70,1 млрд к 2033 году, что делает эти обновления критически важными для конкурентоспособности Google против новых стартапов.

Если даже ИИ Гугла будет давать финансовые советы, то что может пойти не так? 📈🤖

#Google #Finance #Gemini
------
@tsingular
👍21
Телескоп Webb обнаружил свободно дрейфующие планеты размером с газовые гиганты

James Webb зафиксировал планеты-скитальцы, которые настолько массивны, что способны собирать вокруг себя собственные планетные системы.

Эти объекты дрейфуют в космосе без звезды-хозяина, но их гравитация достаточно сильна для захвата других небесных тел. Инфракрасные наблюдения выявили планеты массой до 5 Юпитеров в звездообразующих скоплениях вроде NGC 1333.

Обнаружение таких систем переворачивает представления о формировании планет. Теперь мы знаем - планетные системы могут возникать не только вокруг звезд.

Должна еще где-то быть планета на слонах и черепахе.
Нужно искать лучше. :)

#Webb #planets #rogue
------
@tsingular
😁9🕊2👍1💯1
А почему до сих пор мультимодалки не тестируют ребусами?
Зачем выдумывать все эти AGI тесты?

#ребусы #бенчмарки
———
@tsingular
1🔥13👍9331
Ну вот Sonnet 4 решил, но ход размышлений ИИшный.

В общем ребусы уже можно использовать для проверки моделей.
Надо собрать пайп.

#ребус
———
@tsingular
👍731🤣1
GPT-5!!
ну все, - AGI
апострофы только не объяснила, которые К и А убирают
%)

#ребусы #GPT5
———
@tsingular
🔥9👍71
нет.. не AGI :)

#GPT5 #ребусы
———
@tsingular
😁8
GPT5 и Соннет 4 на простом завалились.
Ну в общем вывод такой, - старые ребусы можно и нужно использовать для тестирования мультимодалок.

а роботов нужно на 3х мерных детских загадках-конструкторах тестировать

#ребусы #бенчмарки
———
@tsingular
👍73
💡 Meta* представила Byte Latent Transformer (BLT) — модель без токенов, которая обгоняет классические

Meta Research выложили исходник BLT (Byte Latent Transformer).
впервые байтовая модель догнала и местами превзошла токенизационные LLM вроде LLaMA 3, при этом снижая затраты на инференс до 50% и заметно повышая устойчивость.

🔍 Что нового в BLT
- Никакой токенизации: модель учится прямо на байтах, без фиксированного словаря.

- Динамические «патчи»: байты группируются в блоки переменной длины в зависимости от сложности текста (энтропии следующего байта).

- Эффективное распределение вычислений: сложные участки текста получают больше внимания и ресурсов, простые — меньше.

- Гибкое масштабирование: можно одновременно увеличивать размер модели и длину патча, сохраняя бюджет по FLOPs.

- Три уровня архитектуры: лёгкий байтовый энкодер, тяжёлый глобальный латентный трансформер и лёгкий декодер.

📈 Ключевые моменты из статьи

- Масштаб: обучение моделей до 8B параметров и 4T байт данных.

- Сравнение: при фиксированном бюджете инференса BLT обгоняет LLaMA 2/3 уже после compute-optimal точки.

- Качество: BLT-Entropy 8B превзошла LLaMA 3 на 4 из 7 стандартных бенчмарках, а в задачах устойчивости к шуму и работе с символами — с огромным отрывом (CUTE benchmark +25 пунктов).

- Переводы: +2 BLEU в среднем на низкоресурсных языках в FLORES-101.

- Инференс: патчи по 8 байт экономят ~50% FLOPs при минимальной потере качества.

💡 Почему это важно

BLT открывает путь к универсальным LLM, работающим с любыми языками и форматами без тонкой настройки токенизатора. Это особенно перспективно для:
— мультиязычных и низкоресурсных сценариев;
— устойчивости к ошибкам и «грязным» данным;
— мультимодальных моделей (байты можно применять и к аудио/видео-потокам).

📎 Репозиторий: github.com/facebookresearch/blt
Paper

TLDR: Meta убила токенизаторы

*Meta - запрещенная в РФ организация

#BLT #Meta #Transformers
———
@tsingular
🔥6👍32
нашел непробиваемый ребус.
решит только лишь AGI

Все нейронки не справились

#ребус #юмор
———
@tsingular
1🔥181👍1
🤨 OpenAI заявила о 74.9% на SWE-Bench, чтобы обойти Opus 4.1 с его 74.5%…
Но тест они прогнали не на всех 500 задачах, а только на 477.

Ирония в том, что в официальной system card у них стоит просто 74%.

Источник: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
12🔥21👀1
Grok4 теперь бесплатный для всех

Илон Маск сделал Grok4 полностью бесплатным для пользователей.

Новая модель показывает прорыв в тестах на рассуждения - первая превысила 10% на бенчмарке ARC-AGI, достигнув 15,9%. В программировании набирает 72-75% на SWE-bench.

Основные фишки:
- архитектура "reasoning-first" вместо традиционных трансформеров
- нативная работа с инструментами в режиме "Grok Heavy"
- доступ к реальным данным из X в реальном времени
- меньше ограничений в ответах по сравнению с конкурентами

Пробуем тут: https://x.com/i/grok

Бесплатный сыр только в мышеловке, но пока что мышеловка выглядит довольно интересно.

До конца месяца обещают 4.5 версию.

#Grok4 #xAI
------
@tsingular
🔥256🆒54
Forwarded from Denis Sexy IT 🤖
Это вот это же имеют ввиду под фразой «Прогресс не остановить?»
30😁23👀9💯41👾1
Stanford обновил полный курс по языковым моделям с нуля

CS336 от Стэнфорда учит создавать языковые модели от сбора данных до деплоя.

Ведут лекции Перси Лианг (директор CRFM) и Тацунори Хашимото. Курс покрывает трансформеры, обучение на ограниченных датасетах через синтетические данные, этику ИИ и работу с GPU.

Отдельные лекции посвящены параллелизму, оценке моделей через бенчмарки вроде MMLU и Stanford QA Dataset. Студенты проходят путь от теории до практических заданий по построению архитектуры.

Полный плейлист доступен на YouTube с детальным разбором каждого этапа создания языковых моделей.

Актуальная версия на 2025й год.
https://online.stanford.edu/courses/cs336-language-modeling-scratch

#Stanford #CS336 #обучение
------
@tsingular
74👍4🤝21🔥1
Forwarded from Сиолошная
Sama СДУРЕЛ и решил поиграть в Деда Мороза: Plus юзеры теперь получат 3000 запросов к GPT-5-Thinking в неделю! Это кратно больше, чем все reasoning-модели вместе взятые (o3 / o4-mini) в подписке до этого.

GPU для обслуживания пользователей буквально плавятся: Sama сказал, что процент пользователей, получающих ответы от рассуждающих моделей, значительно увеличивается с каждым днем; например, для бесплатных пользователей этот показатель вырос с <1% до 7%, а для Plus-пользователей plus — с 7% до 24%.

То есть:
1) средний бесплатный пользователь всё ещё не знаком с рассуждающими моделями (но их число растёт -> существенно улучшается опыт)
2) до GPT-5 всего 7% Plus'овиков пользовалось рассуждающими моделями (я думал куда больше)
3) а теперь спрос на GPT-5-Thinking подпрыгнул в 3.5 раз и продолжает расти! Это должно существенно улучшить качество ответов для неискушенных пользователей

===

Напоминаю, что чтобы ваш запрос автоматом отправился в GPT-5-Thinking нужно в конце дописать "Think better" или "think for long" или "Подумай хорошенько над ответом". Ну или проще будет включить этот режим по умолчанию в селекторе сверху.
😁4🔥321
США берет 15% с продаж чипов Nvidia и AMD в Китай

Администрация Трампа заключила необычную сделку с Nvidia и AMD: компании будут отдавать 15% выручки от продаж ИИ-чипов в Китай американскому правительству.

Соглашение появилось через месяц после разрешения Nvidia продавать чип H20 в Поднебесную. Однако лицензии на фактические продажи до сих пор не выданы.

Главный переговорщик по сделке - CEO Nvidia Дженсен Хуанг, который встречался с Трампом на прошлой неделе в Белом доме. Механизм представляет новый подход к управлению технологическими поставками между странами.

Интересно как договорились

#Nvidia #Trump #Китай
------
@tsingular
431👍1🔥1
Эти дни идёт интересная конференция - AGI-25

Через 2 часа начинается кейнот и будут разбирать доклады.

Посмотреть можно тут:
https://www.youtube.com/watch?v=XqYTQfQeMrE

#AGI25
———
@tsingular
👍32
Собираем ReAct-агент на базе LangGraph и GigaChat

Сбер опубликовал детальный гайд по созданию ReAct-агентов с помощью LangGraph на базе GigaChat Max.

ReAct-агенты объединяют пошаговое рассуждение с выполнением задач — непрерывный цикл размышления и действия.

Агенты автономно разбивают сложные задачи на подзадачи и выполняют их итеративно, динамично подключая внешние инструменты по мере необходимости.

LangGraph помогает быстро собрать такие мультиагентные процессы с параллельными ветками исполнения задач в виде графов.

В гайде подробная инструкция по сборке и код с вызовом функций, памятью, поиском в интернете и самооценкой действий.

#ReAct #LangGraph #Сбербанк #Gigachain #habr #агенты
———
@tsingular
5👍4🔥31