This media is not supported in your browser
VIEW IN TELEGRAM
Стоимость Nano Banana 2:
Модель позволяет быстро генерировать и редактировать изображения, сохраняя уровень детализации, света и текстур, достаточный для коммерческих задач.
Ключевые возможности:
* точное следование сложным текстовым инструкциям
* корректный текст внутри изображений
* создание инфографики, диаграмм и визуального контента
* сохранение внешнего вида персонажей и объектов между генерациями
* поддержка разных форматов и разрешений
Nano Banana 2 интегрирована в экосистему Google:
* Gemini
* AI Studio и Gemini API
* Vertex AI
* Search и Lens
* рекламные инструменты Google
• $0.0672 за изображение 1K
• $0.101 за изображение 2K
• $0.151 за изображение 4K
Отдельное внимание уделено прозрачности - изображения автоматически получают цифровую маркировку SynthID и соответствуют стандарту C2PA.
https://blog.google/innovation-and-ai/technology/ai/nano-banana-2/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15👍10💔3🔥2
🎯 Martian выпустили крупнейший бенчмарк для оценки AI-агентов, которые проверяют код и он полностью open-source.
Главная проблема большинства AI-тестов - модели со временем просто запоминают ответы. Бенчмарк превращается в «экзамен с известными вопросами», а реальные возможности моделей остаются за кадром.
Martian решили эту проблему архитектурно.
Вместо одного теста они внедрили систему Dual-Layer Evaluation:
- Offline-слой — честное сравнение моделей на статичных данных
- Online-слой — анализ поведения инструментов в реальной работе разработчиков
Если компания попытается «подогнать» модель под офлайн-тест, это сразу станет заметно — её результаты перестанут совпадать с реальным использованием в онлайн-слое.
Фактически это первый самокорректирующийся бенчмарк, который нельзя накрутить маркетингом или обучением на тестовых данных.
Что внутри:
- Более 200 000 реальных изменений кода
- Данные реального поведения разработчиков
- Оценка качества AI-ревью в боевых условиях
- Полная нейтральность — создатели не продают собственные coding-ассистенты
Это первый измеритель качества AI-инструментов для разработки, который не деградирует со временем и отражает реальную пользу, а не лабораторные метрики.
https://codereview.withmartian.com/
Главная проблема большинства AI-тестов - модели со временем просто запоминают ответы. Бенчмарк превращается в «экзамен с известными вопросами», а реальные возможности моделей остаются за кадром.
Martian решили эту проблему архитектурно.
Вместо одного теста они внедрили систему Dual-Layer Evaluation:
- Offline-слой — честное сравнение моделей на статичных данных
- Online-слой — анализ поведения инструментов в реальной работе разработчиков
Если компания попытается «подогнать» модель под офлайн-тест, это сразу станет заметно — её результаты перестанут совпадать с реальным использованием в онлайн-слое.
Фактически это первый самокорректирующийся бенчмарк, который нельзя накрутить маркетингом или обучением на тестовых данных.
Что внутри:
- Более 200 000 реальных изменений кода
- Данные реального поведения разработчиков
- Оценка качества AI-ревью в боевых условиях
- Полная нейтральность — создатели не продают собственные coding-ассистенты
Это первый измеритель качества AI-инструментов для разработки, который не деградирует со временем и отражает реальную пользу, а не лабораторные метрики.
https://codereview.withmartian.com/
👍11🔥6❤5❤🔥2
🔥 10 GitHub-репозиториев, которые реально прокачают тебя в AI
1. Generative AI for Beginners
Полноценный курс от Microsoft: Jupyter-ноутбуки, практические задания и разработка GenAI-приложений.
https://github.com/microsoft/generative-ai-for-beginners
2. LLMs from Scratch
Пошаговая реализация GPT-подобной модели с нуля. Лучший способ понять, как работают LLM внутри.
https://github.com/rasbt/LLMs-from-scratch
3. AI Agents for Beginners
Практика по созданию агентных систем: инструменты, память, планирование, workflow.
https://github.com/microsoft/ai-agents-for-beginners
4. ML for Beginners
Классическая база по машинному обучению: 26 структурированных уроков.
https://github.com/microsoft/ML-For-Beginners
5. OpenAI Cookbook
Официальные примеры работы с API: production-паттерны, RAG, функции, реальные кейсы.
https://github.com/openai/openai-cookbook
6. Python 100 Days
Интенсив по Python с практикой каждый день. Отличная база для входа в AI.
https://github.com/jackfrued/Python-100-Days
7. LLM App Templates
Готовые RAG-шаблоны и production-решения для реальных LLM-приложений.
https://github.com/pathwaycom/llm-app
8. Python Data Science Handbook
Фундамент по NumPy, Pandas, визуализации и классическому ML.
https://github.com/jakevdp/PythonDataScienceHandbook
9. Stable Diffusion
Оригинальный код модели text-to-image - отличная база для изучения генеративного CV.
https://github.com/CompVis/stable-diffusion
10. Segment Anything
Модель от Meta для сегментации изображений - мощный инструмент для компьютерного зрения.
https://github.com/facebookresearch/segment-anything
#AI #MachineLearning #LLM #GitHub #Python #DataScience
1. Generative AI for Beginners
Полноценный курс от Microsoft: Jupyter-ноутбуки, практические задания и разработка GenAI-приложений.
https://github.com/microsoft/generative-ai-for-beginners
2. LLMs from Scratch
Пошаговая реализация GPT-подобной модели с нуля. Лучший способ понять, как работают LLM внутри.
https://github.com/rasbt/LLMs-from-scratch
3. AI Agents for Beginners
Практика по созданию агентных систем: инструменты, память, планирование, workflow.
https://github.com/microsoft/ai-agents-for-beginners
4. ML for Beginners
Классическая база по машинному обучению: 26 структурированных уроков.
https://github.com/microsoft/ML-For-Beginners
5. OpenAI Cookbook
Официальные примеры работы с API: production-паттерны, RAG, функции, реальные кейсы.
https://github.com/openai/openai-cookbook
6. Python 100 Days
Интенсив по Python с практикой каждый день. Отличная база для входа в AI.
https://github.com/jackfrued/Python-100-Days
7. LLM App Templates
Готовые RAG-шаблоны и production-решения для реальных LLM-приложений.
https://github.com/pathwaycom/llm-app
8. Python Data Science Handbook
Фундамент по NumPy, Pandas, визуализации и классическому ML.
https://github.com/jakevdp/PythonDataScienceHandbook
9. Stable Diffusion
Оригинальный код модели text-to-image - отличная база для изучения генеративного CV.
https://github.com/CompVis/stable-diffusion
10. Segment Anything
Модель от Meta для сегментации изображений - мощный инструмент для компьютерного зрения.
https://github.com/facebookresearch/segment-anything
#AI #MachineLearning #LLM #GitHub #Python #DataScience
👍19❤9🍌3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
В setup:
- 8 агентов (Claude + Codex)
- у каждого свой GPU
- каждый работает как отдельный исследователь
- задачи ведутся через Git-ветки
- коммуникация через файлы
- всё запускается в tmux - как «офис» с окнами
Фактически — попытка построить AI-research-организацию.
Но главный вывод оказался неожиданным.
Агенты:
- плохо продумывают дизайн экспериментов
- делают случайные или бессмысленные вариации
- не строят сильные baseline
- не контролируют compute и время
- часто делают ложные выводы
Пример: агент «обнаружил», что увеличение hidden size улучшает validation loss.
Формально - да. Но модель просто стала больше и дольше обучалась. Никакой научной ценности.
Инсайт:
AI отлично реализует хорошо сформулированные идеи.
Но пока плохо генерирует сильные исследовательские гипотезы.
Теперь мы программируем не модель -
мы программируем организацию.
Source code такой системы:
- промпты
- роли
- процессы
- инструменты
- standup’ы
- workflow
Добро пожаловать в эпоху *Org Engineering*.
https://x.com/karpathy/status/2027521323275325622
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤8👍7🥱3
This media is not supported in your browser
VIEW IN TELEGRAM
Ему задали один вопрос:
Что бы вы сейчас сказали президенту?
Ответ был коротким:
«Мы патриоты. Всё, что мы делали, — ради этой страны».
Anthropic сотрудничала с государством:
- их модели одними из первых допустили к секретным военным системам
- компания помогала в задачах обороны
Но затем Пентагон потребовал:
- доступ к технологиям полностью автономного оружия
- возможности массового наблюдения
Anthropic отказалась — и провела красную линию.
Ответ правительства:
- давление через цепочки поставок
- чрезвычайные полномочия
- требование отказаться от продуктов компании на федеральном уровне
Амодеи:
«Не соглашаться с правительством — это и есть по-настоящему по-американски».
Но самый показательный момент произошёл позже.
По данным WSJ, во время недавних военных операций США против Ирана
модель Claude всё равно использовалась.
Центральное командование применяло её для:
- разведывательных оценок
- идентификации целей
- моделирования боевых сценариев
Формально это не нарушение - у госструктур есть 6 месяцев, чтобы отказаться от Claude.
Но тайминг выглядит показательно:
– Anthropic отказывается принимать условия Пентагона
– В тот же день звучат призывы срочно прекратить использование Claude
– И буквально через несколько часов модель используют в боевой операции
Это борьба за контроль над тем,
кто и на каких условиях будет использовать интеллект машин.
https://www.wsj.com/livecoverage/iran-strikes-2026/card/u-s-strikes-in-middle-east-use-anthropic-hours-after-trump-ban-ozNO0iClZpfpL7K7ElJ2
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22👍7😁5🔥4💯2
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь можно перенести контекст и предпочтения из других AI-инструментов.
Как это работает:
1. В другом AI генерируете специальный prompt с вашим контекстом
2. Копируете результат
3. Вставляете его в настройки памяти Claude
После этого Claude:
- запоминает ваши предпочтения
- понимает ваш стиль работы
- может сразу продолжать диалог без повторных объяснений
Функция доступна во всех платных тарифах.
Почему это важно:
Контекст становится переносимым.
Вы больше не привязаны к одному инструменту.
Новый тренд в AI:
Пользовательский контекст - это ваш личный слой поверх моделей.
Модель можно сменить.
Память - остаётся.
claude.com/import-memory
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍20❤9🔥9
Ты научишься делать те, которые работают в продакшене.
Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:
• не падают из-за мелких изменений на сайте
• собирают данные в разы быстрее
• обновляют всё автоматически по расписанию
• обходят ограничения и блокировки
• выглядят как полноценный сервис, а не как хаос из файлов
Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключаться.
В итоге ты сможешь:
• забирать данные для своих проектов
• автоматизировать чужую рутину
• создавать инструменты для аналитики
• брать коммерческие заказы на сбор данных
Это навык, который напрямую превращается в деньги.
Не «знаю Python», а «умею профессионально добывать данные из интернета».
🎁 Скидка 50% на Stepik действует 48 часов: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣13❤5👍3🔥2
📌 Большинство AI-агентов на самом деле ничего не помнят.
Каждый диалог для них — как первый:
- нет памяти о прошлых разговорах
- нет понимания связей между фактами
- нет накопленного опыта
И здесь многие делают ошибку.
Они используют vector database — и считают, что это память.
Проблема:
Vector search находит похожие куски текста,
но не понимает связи между ними.
Документы остаются изолированными фрагментами.
Агенту нужна не просто память.
Ему нужна система знаний с отношениями.
Именно это делает Cognee — 100% open-source инструмент для самообучающейся памяти.
Что внутри:
- Vector search + графовая база
- Поиск по смыслу + связи между сущностями
- Документы превращаются в knowledge graph
Ключевые возможности:
Composable pipelines
Можно собирать свои пайплайны:
chunking → embedding → entity extraction → обработка
Weighted memory
Чем чаще используется связь — тем она сильнее
Память адаптируется под реальное использование
Self-evolving memory
Пайплайн memify:
- усиливает полезные связи
- удаляет устаревшие данные
- оптимизируется по принципам RL
Агент получает память, которая:
- сохраняется
- понимает связи
- улучшается со временем
https://github.com/topoteretes/cognee
Каждый диалог для них — как первый:
- нет памяти о прошлых разговорах
- нет понимания связей между фактами
- нет накопленного опыта
И здесь многие делают ошибку.
Они используют vector database — и считают, что это память.
Проблема:
Vector search находит похожие куски текста,
но не понимает связи между ними.
Документы остаются изолированными фрагментами.
Агенту нужна не просто память.
Ему нужна система знаний с отношениями.
Именно это делает Cognee — 100% open-source инструмент для самообучающейся памяти.
Что внутри:
- Vector search + графовая база
- Поиск по смыслу + связи между сущностями
- Документы превращаются в knowledge graph
Ключевые возможности:
Composable pipelines
Можно собирать свои пайплайны:
chunking → embedding → entity extraction → обработка
Weighted memory
Чем чаще используется связь — тем она сильнее
Память адаптируется под реальное использование
Self-evolving memory
Пайплайн memify:
- усиливает полезные связи
- удаляет устаревшие данные
- оптимизируется по принципам RL
Агент получает память, которая:
- сохраняется
- понимает связи
- улучшается со временем
https://github.com/topoteretes/cognee
❤21👍8🤣7😍2
Please open Telegram to view this post
VIEW IN TELEGRAM
😁67🤣16👍14🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
На это конец, можно идти домой
🤣51👍5❤2😍2
Если вы хоть раз пытались навести порядок в BI, то знаете эту боль.
Дашборды растут, копируются, устаревают.
А когда нужно понять, что где используется — начинается классика:
скриншоты, Excel-таблицы, ручные проверки.
Парадокс в том, что мы строим аналитику, чтобы автоматизировать бизнес,
но управление самой BI-средой часто остаётся полностью ручным.
Хорошая новость — это можно автоматизировать.
10 марта в 12:00 (мск) Yandex Cloud проведёт вебинар
«API в DataLens — все пути автоматизации».
На вебинаре разберут:
- возможности Public API DataLens
- как управлять дашбордами и объектами программно
- как убрать рутину из администрирования BI
- реальные сценарии автоматизации
- кейс использования API-коннектора клиентом
Будет особенно полезно, если вы хотя бы раз делали «инвентаризацию дашбордов вручную».
Кому подойдёт:
BI-аналитикам, дата-инженерам, разработчикам, системным архитекторам и руководителям аналитики.
Участие бесплатное, требуется предварительная регистрация.
Иногда следующий уровень аналитики — это автоматизация самой аналитики.
Дашборды растут, копируются, устаревают.
А когда нужно понять, что где используется — начинается классика:
скриншоты, Excel-таблицы, ручные проверки.
Парадокс в том, что мы строим аналитику, чтобы автоматизировать бизнес,
но управление самой BI-средой часто остаётся полностью ручным.
Хорошая новость — это можно автоматизировать.
10 марта в 12:00 (мск) Yandex Cloud проведёт вебинар
«API в DataLens — все пути автоматизации».
На вебинаре разберут:
- возможности Public API DataLens
- как управлять дашбордами и объектами программно
- как убрать рутину из администрирования BI
- реальные сценарии автоматизации
- кейс использования API-коннектора клиентом
Будет особенно полезно, если вы хотя бы раз делали «инвентаризацию дашбордов вручную».
Кому подойдёт:
BI-аналитикам, дата-инженерам, разработчикам, системным архитекторам и руководителям аналитики.
Участие бесплатное, требуется предварительная регистрация.
Иногда следующий уровень аналитики — это автоматизация самой аналитики.
❤8😍2
This media is not supported in your browser
VIEW IN TELEGRAM
Главная проблема Claude Code
По умолчанию у Claude нет долгосрочной памяти:
- каждый запуск - "с чистого листа"
- весь контекст нужно передавать заново
- растут токены
- быстро достигаются лимиты
- агент забывает структуру проекта, решения и предыдущие шаги
Это делает длительную работу с кодом дорогой и неэффективной.
Что делает Claude-Mem
Claude-Mem добавляет слой persistent memory:
- сохраняет важный контекст между сессиями
- восстанавливает знания при следующем запуске
- отправляет в модель только релевантную информацию
По сути, это внешний long-term memory для агента.
Результаты
По заявлению разраьотчиков:
- до 95% меньше токенов на повторных запусках
- до 20x больше tool calls до достижения лимитов
- быстрее старт новых сессий
- меньше повторных объяснений модели
https://github.com/thedotmack/claude-mem
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍8🥴6🔥4
⚡️ ChatGPT-5.4 - что уже «утекло»
- 2M токенов контекста + persistent memory
Это уже не просто «длинная история чата», а полноценная работа с огромными кодовыми базами, документами и агентными пайплайнами без постоянного перепромптинга.
- Полноразмерная обработка изображений
Модель якобы умеет работать с PNG, JPEG и WebP без понижения качества.
Это критично для:
- архитектурных чертежей
- плотных UI-скриншотов
- схем и графиков с мелким текстом
- сложной технической документации
Сохранение исходных байтов изображения = меньше потерь информации при анализе.
- Новый speed-priority tier
Отдельный класс скорости. Вероятно - для продакшена, агентов и real-time задач.
Интересный момент - GPT-5.4 «засветился» в pull request’ах публичного репозитория Codex на GitHub.
Упоминания быстро удалили force-push’ами, но скриншоты уже разлетелись.
Prediction markets:
- 55% шанс релиза до апреля 2026
- 74% шанс до июня 2026
Конкуренция давит:
- OpenAI не может замедляться.
- Claude Opus 4.6 вышел с агентными командами и 1M контекстом.
- Anthropic через Claude Code уже доминирует в кодинге.
- DeepSeek V4 тренируется на Huawei-железе вне NVIDIA-экосистемы.
Если 2M контекст подтвердится - это уже другой класс систем:
- полноценные автономные код-агенты
- большие финансовые и юридические пайплайны
- enterprise-документооборот
- сложные multimodal workflow
- 2M токенов контекста + persistent memory
Это уже не просто «длинная история чата», а полноценная работа с огромными кодовыми базами, документами и агентными пайплайнами без постоянного перепромптинга.
- Полноразмерная обработка изображений
Модель якобы умеет работать с PNG, JPEG и WebP без понижения качества.
Это критично для:
- архитектурных чертежей
- плотных UI-скриншотов
- схем и графиков с мелким текстом
- сложной технической документации
Сохранение исходных байтов изображения = меньше потерь информации при анализе.
- Новый speed-priority tier
Отдельный класс скорости. Вероятно - для продакшена, агентов и real-time задач.
Интересный момент - GPT-5.4 «засветился» в pull request’ах публичного репозитория Codex на GitHub.
Упоминания быстро удалили force-push’ами, но скриншоты уже разлетелись.
Prediction markets:
- 55% шанс релиза до апреля 2026
- 74% шанс до июня 2026
Конкуренция давит:
- OpenAI не может замедляться.
- Claude Opus 4.6 вышел с агентными командами и 1M контекстом.
- Anthropic через Claude Code уже доминирует в кодинге.
- DeepSeek V4 тренируется на Huawei-железе вне NVIDIA-экосистемы.
Если 2M контекст подтвердится - это уже другой класс систем:
- полноценные автономные код-агенты
- большие финансовые и юридические пайплайны
- enterprise-документооборот
- сложные multimodal workflow
1🔥29❤11👍10
🔥 Легендарный математик - Дональд Кнут начал свою новую научную работу словами: “Shock! Shock!”
Почему?
Потому что Claude Opus 4.6 решил открытую задачу, над которой Кнут работал несколько недель.
Речь о гипотезе разложения графов из легендарной книги The Art of Computer Programming.
Кнут даже назвал статью в честь ИИ:
“Claude’s Cycles”
Что произошло:
- Claude провёл 31 исследование
- на это ушло примерно 1 час
- Кнут изучил результат
- оформил формальное математическое доказательство
И закончил работу фразой:
> *«Похоже, мне придётся пересмотреть своё мнение о генеративном ИИ.»*
Это сказал человек, который написал библию компьютерных наук.
И назвал научную работу в честь ИИ.
Почитать саму работу можно здесь:
https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
Почему?
Потому что Claude Opus 4.6 решил открытую задачу, над которой Кнут работал несколько недель.
Речь о гипотезе разложения графов из легендарной книги The Art of Computer Programming.
Кнут даже назвал статью в честь ИИ:
“Claude’s Cycles”
Что произошло:
- Claude провёл 31 исследование
- на это ушло примерно 1 час
- Кнут изучил результат
- оформил формальное математическое доказательство
И закончил работу фразой:
> *«Похоже, мне придётся пересмотреть своё мнение о генеративном ИИ.»*
Это сказал человек, который написал библию компьютерных наук.
И назвал научную работу в честь ИИ.
Почитать саму работу можно здесь:
https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
1❤36👍16🔥12🤣7💔2🤨2
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Оптимизация контекста для Claude Code
Context Mode — это сервер MCP, который значительно уменьшает объем данных, поступающих в контекстный буфер Claude Code. Он обрабатывает выводы инструментов, сокращая их размер с 315 КБ до 5.4 КБ, что позволяет сохранить больше информации для взаимодействия.
🚀Основные моменты:
- Сокращение данных на 98% для инструментов.
- Поддержка множества языков программирования.
- Интеграция с существующими инструментами через слэш-команды.
- Эффективная работа с логами и API-ответами.
- Умный поиск по индексированному контенту.
📌 GitHub: https://github.com/mksglu/claude-context-mode
Context Mode — это сервер MCP, который значительно уменьшает объем данных, поступающих в контекстный буфер Claude Code. Он обрабатывает выводы инструментов, сокращая их размер с 315 КБ до 5.4 КБ, что позволяет сохранить больше информации для взаимодействия.
🚀Основные моменты:
- Сокращение данных на 98% для инструментов.
- Поддержка множества языков программирования.
- Интеграция с существующими инструментами через слэш-команды.
- Эффективная работа с логами и API-ответами.
- Умный поиск по индексированному контенту.
📌 GitHub: https://github.com/mksglu/claude-context-mode
❤8🔥4👍3
BullshitBench v2, созданный Питером Гостевым, - это бенчмарк, который проверяет, способны ли модели ИИ распознавать бессмысленные запросы и отказываться на них отвечать, вместо того чтобы уверенно продолжать и «придумывать» ответ.
Только модели Claude от Anthropic и Qwen 3.5 от Alibaba показывают результат выше 60% по распознаванию бессмыслицы.
А модели OpenAI и Google? Застряли на месте и почти не улучшаются.
Еще более неожиданно: модели с усиленным рассуждением (reasoning), которые «думают дольше», на самом деле показывают худшие результаты. Они используют дополнительное вычисление не для того, чтобы отвергнуть бессмысленный запрос, а чтобы рационализировать и оправдать этот абсурд.
🎯Полезные Мл-ресурсы 🚀 Max
https://x.com/petergostev/status/2028492838082666780
Только модели Claude от Anthropic и Qwen 3.5 от Alibaba показывают результат выше 60% по распознаванию бессмыслицы.
А модели OpenAI и Google? Застряли на месте и почти не улучшаются.
Еще более неожиданно: модели с усиленным рассуждением (reasoning), которые «думают дольше», на самом деле показывают худшие результаты. Они используют дополнительное вычисление не для того, чтобы отвергнуть бессмысленный запрос, а чтобы рационализировать и оправдать этот абсурд.
🎯Полезные Мл-ресурсы 🚀 Max
https://x.com/petergostev/status/2028492838082666780
👍14❤11🥰3🔥2
Как DS/ML за 9 месяцев вырасти на 30% в зарплате и выйти на еще более интересные проекты?
Освойте Deep Learning. Голосовые помощники, распознавание лиц, рекомендации в приложениях, медицинская диагностика — нейросети используются уже во всех сферах бизнеса. Компании ищут DL-специалистов, чтобы точнее обучать и настраивать нейросети под свои запросы.
За 9 месяцев вы изучите все актуальные модели последних лет и получите крепкую базу в DL, углубившись в каждое направление.
Что вы освоите:
🕖 Старт обучения — 12 марта, количество мест на поток ограничено
Бронируйте место на курсе прямо сейчас и получите скидку 30%
😶 ПОЛУЧИТЬ СКИДКУ НА КУРС
Освойте Deep Learning. Голосовые помощники, распознавание лиц, рекомендации в приложениях, медицинская диагностика — нейросети используются уже во всех сферах бизнеса. Компании ищут DL-специалистов, чтобы точнее обучать и настраивать нейросети под свои запросы.
За 9 месяцев вы изучите все актуальные модели последних лет и получите крепкую базу в DL, углубившись в каждое направление.
Что вы освоите:
🟠 Создание и обучение нейросетей с нуля🟠 Компьютерное зрение (Computer Vision)🟠 NLP (обработка текста)🟠 Генеративные модели🟠 MLOps и продакшн-подход
🕖 Старт обучения — 12 марта, количество мест на поток ограничено
Бронируйте место на курсе прямо сейчас и получите скидку 30%
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6😁3🤣3👍2🔥1
Anthropic сейчас приближается к $20 млрд годовой выручки (run rate) - ещё несколько недель назад этот показатель вырос сразу на $5 млрд.
Компания уже выходит на $20 млрд годового дохода, более чем удвоив показатель с $9 млрд в конце 2025 года. Рост обеспечен массовым распространением её AI-моделей и инструментов вроде Claude Code.
Anthropic, оценка которой сейчас составляет около $380 млрд, стремительно набирает популярность: интерес к продуктам компании стал вирусным, а её приложения даже возглавляют чарты загрузок в App Store, обгоняя многие крупные приложения Apple.
https://www.bloomberg.com/news/articles/2026-03-03/anthropic-nears-20-billion-revenue-run-rate-amid-pentagon-feud
Компания уже выходит на $20 млрд годового дохода, более чем удвоив показатель с $9 млрд в конце 2025 года. Рост обеспечен массовым распространением её AI-моделей и инструментов вроде Claude Code.
Anthropic, оценка которой сейчас составляет около $380 млрд, стремительно набирает популярность: интерес к продуктам компании стал вирусным, а её приложения даже возглавляют чарты загрузок в App Store, обгоняя многие крупные приложения Apple.
https://www.bloomberg.com/news/articles/2026-03-03/anthropic-nears-20-billion-revenue-run-rate-amid-pentagon-feud
❤12🔥10❤🔥2👍2🤣2😁1