Агент помогает находить и выбирать товары через чат с поддержкой изображений, уточняющих вопросов и учётом истории покупок.
Возможности:
- Распознавание товаров по фото: можно сфотографировать футболку — агент подберёт низ, показать интерьер — выдаст технику в том же стиле
- Персонализированный подбор подарков через уточняющие вопросы (возраст, увлечения, занятия)
- Сохранение контекста диалогов и возможность продолжить предыдущие поиски
- Генерация персональных подсказок на основе последних поисковых запросов
Как работает:
- VLM распознаёт объекты на фото и переводит в текстовое описание
- Нейросети обрабатывают описание вместе с текстовым запросом пользователя
- Агент собирает информацию в сети и среди отзывов Маркета
- Фильтрует и ранжирует результаты с учётом личных предпочтений и истории покупок
До конца 2025 года планируют добавить голосовые запросы.
Хабр: https://habr.com/ru/companies/yandex/news/963778/
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤32👍30🥰10🤣8🗿7😁3☃2
⚡️ Google впервые открывает доступ к TPU седьмого поколения - Ironwood.
Это самый агрессивный шаг компании в попытке привлечь AI-компании в свою экосистему кастомных чипов.
Ironwood более чем в четыре раза быстрее предыдущего поколения и масштабируется до 9 216 чипов в одном поде, позволяя тренировать и разворачивать модели экстремальных размеров.
Google явно рассчитывает, что доступ к этому железу станет аргументом в гонке сверхмощных AI-кластеров.
https://www.cnbc.com/2025/11/06/google-unveils-ironwood-seventh-generation-tpu-competing-with-nvidia.html
@ai_machinelearning_big_data
Это самый агрессивный шаг компании в попытке привлечь AI-компании в свою экосистему кастомных чипов.
Ironwood более чем в четыре раза быстрее предыдущего поколения и масштабируется до 9 216 чипов в одном поде, позволяя тренировать и разворачивать модели экстремальных размеров.
Google явно рассчитывает, что доступ к этому железу станет аргументом в гонке сверхмощных AI-кластеров.
https://www.cnbc.com/2025/11/06/google-unveils-ironwood-seventh-generation-tpu-competing-with-nvidia.html
@ai_machinelearning_big_data
1🔥49👍15❤11👌2❤🔥1
Yandex B2B Tech увеличил квоты на работу с ИИ-агентом в SourceCraft после двукратного роста использования
За последний месяц частота обращений к ИИ-агенту на платформе SourceCraft выросла в 2 раза. 60% запросов приходится на генерацию кода, 15% — на проектирование архитектуры, еще 15% на документацию и поиск информации.
✔️ В отличие от привычных ассистентов, агент действует автономно, беря на себя до половины инженерных задач. Это соответствует глобальному тренду: по данным McKinsey, ИИ-агенты выполняют 30-50% рутинных задач в разработке, а исследования Google Cloud/DORA показывают рост продуктивности на 80%.
✔️ На фоне растущего спроса Yandex B2B Tech увеличил квоты — теперь пользователи SourceCraft могут выполнять до 1000 операций с ИИ-помощником в неделю. Инструмент доступен как через веб-интерфейс, так и напрямую в среде разработки VS Code.
@ai_machinelearning_big_data
#news #ai #ml
За последний месяц частота обращений к ИИ-агенту на платформе SourceCraft выросла в 2 раза. 60% запросов приходится на генерацию кода, 15% — на проектирование архитектуры, еще 15% на документацию и поиск информации.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24👍18🤣17🔥7🤬4😁2
По данным источников, некоторые образцы уже попали к отдельным клиентам, но дальнейшие экспортные разрешения ведомствам теперь запрещено выдавать.
Параллельно Китай обязал государственные дата-центры полностью перейти на отечественные процессоры.
Если в Китае строится новый государственный дата-центр (финансируется государством или связан с госструктурами), и проект пока реализован меньше чем на 30%, то процессоры должны быть китайскими.
B30A задумывался как компромисс: примерно половина мощности B300, один AI-кристалл, четыре стека HBM3e и поддержка NVLink, чтобы всё ещё можно было строить LLM-кластеры. Фактически это позиционировалось как «наследник H20, но на архитектуре Blackwell». Однако теперь поставки запрещены.
Сразу два решения: американское и китайское - сузили рынок до минимума.
Китайские компании сталкиваются с рисками для уже запланированных кластеров, сложной миграцией с CUDA на местные экосистемы и неопределённостью в производительности собственных чипов.
Nvidia фактически теряет один из своих крупнейших исторических рынков.
AI-железо становится не вопросом производительности, а вопросом политических решений, что меняет динамику всей индустрии.
https://www.reuters.com/world/china/us-block-nvidias-sale-scaled-back-ai-chips-china-information-says-2025-11-07/
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥54❤27🤔26👍14🤣11🤨3🥱2🤝2🗿1
Media is too big
VIEW IN TELEGRAM
Без официального анонса стала доступна новая ИИ-модель Polaris Alpha с контекстным окном до 256 тыс. токенов. Она описывается как универсальный инструмент для генерации кода и выполнении инструкций. Модель была запущена для сбора обратной связи от пользователей.
В технических сообществах предполагают, что Polaris Alpha может быть тестовой версией GPT-5.1 от OpenAI. Эту гипотезу подкрепляют отзывы первых пользователей, отмечающих крайне низкий уровень галлюцинаций и стиль ответов, характерный для GPT. Сама Polaris Alpha на прямой вопрос о своей связи с GPT-4 отвечает утвердительно.
По результатам бенчмарка EQ-Bench, производительность модели сопоставима с Claude-3.5-Sonnet. Доступ к Polaris Alpha открыт бесплатно через веб-интерфейс и API на OpenRouter.
openrouter.ai
Мустафа Сулейман, CEO Microsoft AI, анонсировал новую стратегию, основанную на концепции «гуманистического сверхинтеллекта» (HSI). Для работы над этим направлением создается специальное подразделение - MAI Superintelligence Team.
В отличие от идеи AGI, подход Microsoft предполагает создание узкоспециализированных и контролируемых систем для решения конкретных проблем человечества. Стратегия отказывается от гонки за ASI в пользу разработки практических технологий.
Цели HSI — добиться прорывов в медицине, поиск чистой энергии и создание персонализированных ИИ-ассистентов, избегая рисков создания автономных и неконтролируемых систем. По словам Сулеймана, это должно гарантировать, что самые топовые версии ИИ будут создаваться строго в интересах людей.
microsoft.ai
Google представила первый стабильный релиз опенсорсной утилиты Magika с полностью переписанным с нуля на Rust движком. Новая версия способна сканировать сотни файлов в секунду на одном ядре процессора, используя ONNX Runtime для инференса и Tokio для асинхронной обработки.
Количество поддерживаемых типов файлов было удвоено и теперь превышает 200. Добавилась поддержка актуальных форматов для Data Science и ML (Jupyter, PyTorch, ONNX), современных языков программирования (Swift, Kotlin, TypeScript, Zig) и DevOps-инструментов (Dockerfile, TOML, HCL). Разработчикам доступны обновленные модули для Python и TypeScript, а также новый нативный клиент командной строки.
opensource.googleblog.com
Крупнейший в мире контрактный производитель электроники в течение 6 месяцев начнет использовать человекоподобных роботов на своем заводе в Техасе. Роботы будут задействованы в сборке серверов для ИИ-систем. По словам CEO Янг Лю, это первый подобный опыт за более чем 50-летнюю историю Foxconn.
Этот шаг является частью стратегии по агрессивному расширению производства в Северной Америке. Компания, являясь ключевым поставщиком Nvidia, считает Северную Америку своим главным хабом по выпуску ИИ-серверов на ближайшие 3 года. Решение о роботизации принято для повышения эффективности производства, которое, по словам Лю, критически важно в сфере ИИ.
asia.nikkei.com
Сумит Чинтала, один из создателей и ключевых руководителей проекта PyTorch, объявил о своем уходе. Его последний рабочий день в компании - 17 ноября. Чинтала, проработавший у Цукерберга 11 лет, возглавлял PyTorch с момента его создания. За это время фреймворк стал индустриальным стандартом, заняв, по оценкам, более 90% рынка ИИ-разработки.
Свой уход он объяснил желанием после долгого отпуска заняться чем-то новым. По его словам, PyTorch достиг зрелости и стабильности, а сильная команда готова продолжать его развитие. Сам Чинтала планирует остаться активным участником open-source сообщества.
Soumith Chintala в сети X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍82❤41🔥12👏2💘1
GPT-5-Codex-Mini - более доступная версия флагманского Codex, она в 4 раза эффективней по затратам по сравнению с полной версией GPT-5-Codex при небольшом компромиссе в производительности.
Разница в возможностях минимальна: на SWE-bench Verified версия Mini набрала 71.3%, в то время как старшая GPT-5-Codex - 74.5%. OpenAI рекомендует переключаться на Mini для решения более простых задач или для экономии ресурсов при приближении к лимитам. Старший Codex будет автоматически предлагать переход на Mini, когда пользователь достигнет 90% своего лимита.
Модель уже доступна в CLI и расширении для IDE, а в скором времени появится и поддержка через API.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤38🔥17👍13🥱1😇1
Прокачайте технические скиллы и создайте реальное ИИ-решение для бизнеса на хакатоне «Альфа-Будущее» с призовым фондом в 1 000 000 ₽!
Для кого: студентов вузов и колледжей по направлениям Data Science, NLP, AI, ML, Frontend, Backend и Fullstack.
А еще вас ждет:
— возможность получить фаст-трек в команду Альфы;
— поддержка от экспертов Альфа-Банка и шанс улучшить свой код вместе с ними;
— обмен опытом и встреча лучших команд на офлайн-финале в Москве;
— возможность решить задачу в одном из двух актуальных треков: настройка RAG-системы для ответов на вопросы или разработка copilot-приложения для клиентов микробизнеса.
Больше полезного в Changellenge >>
Please open Telegram to view this post
VIEW IN TELEGRAM
👍36❤27🔥23🤣12🤔8
В швейцарской сети супермаркетов Migros продается печенье с пятиногим оленем. Принт на коробке явно сгенерирован ИИ, но на самом деле недочётов гораздо больше.
Пользователи реддита насчитали как минимум еще 11 косяков этой генерации. А сколько видите вы?
1. У оленя пять ног
2. У оленя либо три рога, либо два, но они очень странной формы
3. Обе задние ноги оленя не касаются земли
4. У саней пять опор: три справа и две слева
5. На задней части саней неразборчивый символ, похожий на буквы XX
6. Ноги Санты очень короткие или он стоит на коленях.
7. Вожжи в руках Санты частично отсоединены, а та часть, которая соединена, прикреплена к ремню, тянущему сани, а не к самому оленю, что делает их практически бесполезными.
8. Вожжи как бы превращаются в его пояс.
9. Руки Санты странные, особенно та, которая держит вожжи.
10. Подарки на санях упадут, если сани ускорятся. (возможно нет, и это просто магия Санты)
11. Ветка в левом верхнем углу слишком толстая и просто заканчивается
12. На елке все шары красные, кроме одного желтого.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
😁171❤40👍18😐9🔥6👨💻4🌭3👻3
Forwarded from Анализ данных (Data analysis)
🤖 Google представила Nested Learning — новую парадигму ИИ, которая учится как человек и не забывает прошлые знания
Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.
Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.
Это позволяет модели:
- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает
Что это даёт?
1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.
2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.
3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.
📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
#google
@data_analysis_ml
Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.
Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.
Это позволяет модели:
- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает
Что это даёт?
1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.
2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.
3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.
📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
@data_analysis_ml
👍160👏104❤63🔥31🥰20🤩19😁7🎉6💯3🤔2🤣1
📉 AI-рынок просел на $800 млрд за неделю
Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.
Что происходит:
— Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.
— Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.
— Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.
Почему падение получилось таким резким:
- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.
Главный удар:
- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.
Дополнительные точки напряжения:
- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*
ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.
ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8
@ai_machinelearning_big_data
#ai #ml #finance
Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.
Что происходит:
— Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.
— Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.
— Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.
Почему падение получилось таким резким:
- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.
Главный удар:
- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.
Дополнительные точки напряжения:
- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*
ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.
ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8
@ai_machinelearning_big_data
#ai #ml #finance
1❤73😢43👍35🤔26🔥10🤬8😐4🤨3😨3🎉2🤝1
🚀 ИИ-сервисы перестали быть уделом корпораций. Сегодня любой разработчик может развернуть свой искусственный интеллект — даже локально, в собственном Telegram-боте. Главное — понимать, какие библиотеки использовать и как это собрать воедино.
🗓 На открытом уроке 19 ноября в 20:00 МСК вы узнаете, как превратить мессенджер в площадку для прототипирования AI-проектов. Разберём популярные библиотеки, подходы к NLP и покажем, как развернуть и опубликовать свой бот с ИИ-функциональностью.
Вы сможете создать собственный Telegram-сервис, который работает с открытыми библиотеками искусственного интеллекта — без сложной математики и громоздких облаков.
➡️ Регистрируйтесь на открытый урок в преддверии старта курса «LLM Driven Development» и сделайте первый шаг к созданию AI-приложений своими руками:
https://otus.pw/TCdn/?erid=2W5zFJpyw1S
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🗓 На открытом уроке 19 ноября в 20:00 МСК вы узнаете, как превратить мессенджер в площадку для прототипирования AI-проектов. Разберём популярные библиотеки, подходы к NLP и покажем, как развернуть и опубликовать свой бот с ИИ-функциональностью.
Вы сможете создать собственный Telegram-сервис, который работает с открытыми библиотеками искусственного интеллекта — без сложной математики и громоздких облаков.
➡️ Регистрируйтесь на открытый урок в преддверии старта курса «LLM Driven Development» и сделайте первый шаг к созданию AI-приложений своими руками:
https://otus.pw/TCdn/?erid=2W5zFJpyw1S
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
😐28❤11🤩10👍8🔥5👏1🤬1
🧠 ByteDance показывает: моделям для рассуждений нужны не только слова, но и картинки
MIRA - Multimodal Imagination for Reasoning Assessment, тест, который измеряет, как модели рассуждают, если им дать промежуточные визуальные шаги.
Суть очень простая и понятная:
- Там, где текст не помогает, картинки резко улучшают мышление модели.
- Если дать модели рисунки промежуточных шагов, точность в среднем растёт на 33.7%.
- Бенчмарк включает 546 задач в 20 категориях, где нужно «видеть», а не просто читать: кубики, зеркала, траектории, силы и тд.
Как устроена проверка:
- прямой вопрос
- рассуждение текстом
- рассуждение с визуальными шагами (скетчами)
Что выяснилось:
- Только текст часто делает хуже, потому что слова плохо описывают пространство.
- Если дать модели картинки - результат сильно улучшается, особенно в точных науках.
В бенчмарке: 546 задач по геометрии, физике, логическим головоломкам и причинным связям.
Режимы тестирования:
• Direct - модель отвечает напрямую
• Text-CoT - текстовый chain-of-thought
• Visual-CoT - модель рассуждает через рисунки и визуальные шаги
Ключевые результаты:
• Ни одна модель не превысила 20% точности в Direct-режиме (GPT-5 ~16.5%)
• Text-CoT часто ухудшает результат (например, −18% у Gemini 2.5 Pro)
• Visual-CoT даёт средний прирост +33.7%, особенно заметный в задачах по физике
Главный вывод:
Моделям нужен *визуальный способ думать*.
Им нужно уметь читать простые схемы, понимать их и использовать в рассуждениях, иначе многие задачи просто остаются нерешаемыми.
Статья: arxiv.org/abs/2511.02779
@ai_machinelearning_big_data
#ByteDance
MIRA - Multimodal Imagination for Reasoning Assessment, тест, который измеряет, как модели рассуждают, если им дать промежуточные визуальные шаги.
Суть очень простая и понятная:
- Там, где текст не помогает, картинки резко улучшают мышление модели.
- Если дать модели рисунки промежуточных шагов, точность в среднем растёт на 33.7%.
- Бенчмарк включает 546 задач в 20 категориях, где нужно «видеть», а не просто читать: кубики, зеркала, траектории, силы и тд.
Как устроена проверка:
- прямой вопрос
- рассуждение текстом
- рассуждение с визуальными шагами (скетчами)
Что выяснилось:
- Только текст часто делает хуже, потому что слова плохо описывают пространство.
- Если дать модели картинки - результат сильно улучшается, особенно в точных науках.
В бенчмарке: 546 задач по геометрии, физике, логическим головоломкам и причинным связям.
Режимы тестирования:
• Direct - модель отвечает напрямую
• Text-CoT - текстовый chain-of-thought
• Visual-CoT - модель рассуждает через рисунки и визуальные шаги
Ключевые результаты:
• Ни одна модель не превысила 20% точности в Direct-режиме (GPT-5 ~16.5%)
• Text-CoT часто ухудшает результат (например, −18% у Gemini 2.5 Pro)
• Visual-CoT даёт средний прирост +33.7%, особенно заметный в задачах по физике
Главный вывод:
Моделям нужен *визуальный способ думать*.
Им нужно уметь читать простые схемы, понимать их и использовать в рассуждениях, иначе многие задачи просто остаются нерешаемыми.
Статья: arxiv.org/abs/2511.02779
@ai_machinelearning_big_data
#ByteDance
🤔41👍33❤11🔥5👏4👨💻1
🔎 Upscale-LoRA мощный инструмент для восстановления изображений
Модель создана на базе Qwen-Image-Edit-2509 и предназначена для улучшения качества старых или низкокачественных фотографий.
Поддерживает: улучшение резкости, удаление шума, восстановление деталей и очистку JPEG-артефактов.
Подходит для архивных снимков, скринов и любых изображений с низким разрешением.
https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA
@ai_machinelearning_big_data
#Upscaler
Модель создана на базе Qwen-Image-Edit-2509 и предназначена для улучшения качества старых или низкокачественных фотографий.
Поддерживает: улучшение резкости, удаление шума, восстановление деталей и очистку JPEG-артефактов.
Подходит для архивных снимков, скринов и любых изображений с низким разрешением.
https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA
@ai_machinelearning_big_data
#Upscaler
❤49👍26💘5🥰4⚡1🔥1🤩1👌1
В России можно посещать IT-мероприятия хоть каждый день: как оффлайн, так и онлайн
Но где их находить? Как узнавать о них раньше, чем когда все начнут выкладывать фотографии оттуда?
Переходите на канал IT-Мероприятия России. В нём каждый день анонсируются мероприятия со всех городов России
📆 в канале размещаются как онлайн, так и оффлайн мероприятия;
👩💻 можно найти ивенты по любому стеку: программирование, frontend-backend разработка, кибербезопасность, дата-аналитика, osint, devops и другие;
🎙 разнообразные форматы мероприятий: митапы с коллегами по цеху, конференции и вебинары с известными опытными специалистами, форумы и олимпиады от важных представителей индустрии и многое другое
А чтобы не искать по разным форумам и чатам новости о предстоящих ивентах:
🚀 IT-мероприятия России — подписывайся и будь в курсе всех предстоящих мероприятий!
Но где их находить? Как узнавать о них раньше, чем когда все начнут выкладывать фотографии оттуда?
Переходите на канал IT-Мероприятия России. В нём каждый день анонсируются мероприятия со всех городов России
А чтобы не искать по разным форумам и чатам новости о предстоящих ивентах:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14😁6🔥5❤3🗿3💋1
Это понятное и структурированное введение в основы агентных систем.
В гайде рассматриваются:
- архитектура агента и его основные компоненты
- роль LLM как «мозга» агента
- подключение и использование инструментов
- оркестрация нескольких агентов
- подходы к деплою и продакшн-интеграции
- метрики и способы оценки работы
- как создаются самообучающиеся и эволюционирующие агенты
- пример архитектуры AlphaEvolve
📌 Гайд: https://drive.google.com/file/d/1C-HvqgxM7dj4G2kCQLnuMXi1fTpXRdpx/view
@ai_machinelearning_big_data
#AI #Agents #Google #LLM #MachineLearning #AIResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
❤47🔥24👍16🙈2⚡1