Data Science by ODS.ai 🦜
45.9K subscribers
683 photos
78 videos
7 files
1.76K links
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Emergent is a platform that generates a complete app from a single sentence - including frontend and Python backend.

No developers, no code, no long timelines. Whether it's a dashboard, SaaS tool or game: enter your idea and within minutes you have a working product.

With the new update (V2.0), specialized agents for design, security review and testing have been integrated. This not only makes the creation process faster, but also significantly more robust.

For founders, creators and teams that need speed, this is a real game changer!

A great tool that comes at just the right time!

https://app.emergent.sh/
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣62👍2🔥1
Energy-Based Transformers (EBTs), an approach that out-scales (feed-forward) transformers and unlocks generalized reasoning/thinking on any modality/problem without rewards.

TLDR:
- EBTs are the first model to outscale the Transformer++ during pretraining across modalities and with respect to data, parameters, FLOPs, depth, etc
- EBTs achieve a +29% improvement over the Transformer++ at test-time via thinking longer
- EBTs exhibit better generalization than existing models during inference

It turns out that there’s a very elegant solution:💡
1) Learn to verify predictions
2) Optimization predictions with respect to this verifier

First, how can we generalize reasoning/System 2 Thinking to any problem/modality?🧐

Current approaches generally rely on verifiable rewards, which struggle with scalability and generalizability due to involving human supervision and not being problem/modality agnostic.

🧠But humans and animals are able to reason across any modality and problem type without ever being taught (no supervision), so why can't models do the same?

In order to achieve such general thinking capabilities, we argue that models should learn to reason/think directly from unsupervised learning.

This is exactly how Energy-Based Models (EBM) work! EBMs enable models to both think for longer as well as self-verify their own predictions when reasoning/thinking.

So what exactly are EBMs?💭

The general idea of EBMs is to learn to assign a scalar energy value (verification) denoting the compatibility/unnormalized probability of the input variables, which in this case are the context and prediction pair.

Then, EBMs learn to optimize predictions such that they minimize the energy (become more compatible with the context) by performing forward passes until convergence!

Intuitively, these capabilities allow EBMs to know when a problem is difficult (high energy), and adjust the computing resources (forward passes) for that problem until a good solution is found (low energy).

https://energy-based-transformers.github.io
👍61🔥1🥰1
Forwarded from Sber AI
Продолжаем подборку датасетов от отечественных разработчиков. Сегодня делимся шестью наборами, посвящёнными литературе, компьютерному зрению и аудиоданным.

Russian poems

✉️ 19 000 русскоязычных стихотворений от 48 авторов. Подходит для обучения языковых моделей, а также задач по стилометрии, авторской атрибуции и литературных экспериментов.

Russian Classic Painting Dataset

🌷 Коллекция из свыше 1 600 картин, собранных в фондах Третьяковской галереи, Русского музея и других архивов. Каждое произведение дополнено описанием на русском и английском языках. Можно применять для обучения text-to-image моделей.

Handwritten Russian Letters

📸 Набор данных, созданный автором вручную на основе собственных фотографий. Содержит строчные и прописные буквы. Фон варьируется: линейка, клетка, чистый лист. Пригодится для обучения моделей распознавания рукописного текста и задач OCR.

SOVA

📆 Около 28  000 часов живой русскоязычной речи с ручной разметкой. Это ценный материал для задач автоматического распознавания речи (ASR) и акустического анализа. Датасет распространяется по лицензии CC BY 4.0. Данные можно использовать для коммерческих целей.

Russian
Jokes


🎉 Более 120 000 отборных анекдотов на русском языке. Настоящий кладезь для задач по классификации, тематического анализа и исследования культурных особенностей. Может использоваться при обучении моделей для генерации креативного контента.

🔥 — если хотите больше тематических подборок AI-датасетов
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥134🤡2
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft, OpenAI и Anthropic запускают центр обучения ИИ для американских учителей.

Ведущие ИИ-компании в партнерстве с Американской федерацией учителей создают Национальную академию по обучению искусственному интеллекту. В рамках инициативы стоимостью 22.5 миллиона долларов преподавателям от детского сада до старших классов предоставят бесплатные программы для интеграции ИИ в учебный процесс.

Проект стал ответом на стихийное распространение чат-ботов в школах, которое вызвало у педагогов опасения по поводу списывания и снижения качества обучения. Вместо запретов, технологические гиганты предлагают обучать учителей ответственному использованию новых инструментов, попутно формируя лояльность к своим продуктам у будущих пользователей.
wired.com

✔️ Нейросеть нового поколения с архитектурой, подобной мозгу, учится видеть как люди.

All-TNN - нейросеть, структура которой имитирует организацию нейронов в человеческом мозге. В отличие от традиционных CNN, которые отлично распознают текстуры, но плохо справляются с формами, All-TNN демонстрирует смещения, характерные для людей. Например, она «ожидает» увидеть самолет в верхней части изображения, а не в нижней.

Ключевое отличие - отказ от weight sharing, неестественного для биологических систем. Вместо этого каждый нейрон обучается индивидуально, но со сглаживающим ограничением, которое заставляет соседние нейроны учиться схожим признакам.

Несмотря на то, что All-TNN пока уступает CNN в точности классификации, она потребляет в 10 раз меньше энергии при 13х большем размере.
spectrum.ieee.org

✔️ Replit заключила стратегическое партнерство с Microsoft.

По соглашению, Replit станет доступен в магазине Azure и будет интегрирован с облачными сервисами Microsoft, включая контейнеры, виртуальные машины и базу данных Neon Serverless Postgres. Компании позиционируют совместное предложение как инструмент для быстрого прототипирования, ориентированный не только на программистов, но и на бизнес-пользователей без опыта в кодинге.

Это событие примечательно, поскольку Replit традиционно считалась одним из ключевых клиентов и партнеров Google Cloud, где размещались созданные на платформе приложения. Replit подтвердил, что компания не уходит от Google, а расширяет поддержку на экосистему Microsoft, становясь мультиоблачным решением. Для Microsoft это партнерство - способ привлечь на свою платформу разработчиков и проекты, ранее ориентированные на конкурента.
prnewswire.com

✔️ Moonvalley представила видеомодель Marey.

Moonvalley, основанная выходцами из DeepMind, открыла публичный доступ к своей модели для генерации видео Marey, которая была обучена исключительно на открыто лицензированных данных. Решение позиционируется как инструмент для «гибридного кинопроизводства», предлагая кинопродакшену значительно больше контроля, чем стандартные text-to-video модели.

Модель отличается «осведомленностью о 3D-пространстве» и возможностью свободного управления виртуальной камерой. Пользователи могут в реальном времени изменять траекторию, панорамировать и масштабировать изображение простым движением мыши. Marey также позволяет контролировать объекты, персонажей и менять фон в исходном видео.

Доступ к Marey, способной генерировать ролики до 5 секунд, предоставляется по платной подписке - $14,99 за 100 кредитов, $34,99 за 250 кредитов и $149,99 за 1000 кредитов.
techcrunch.com

✔️ Компания Марка Цукрберга купила долю в производителе умных очков.

Техгигант приобрел миноритарную долю в EssilorLuxottica, крупнейшем в мире производителе очков и владельце бренда Ray-Ban. Сумма сделки составила 3,5 млрд. долларов за пакет акций размером менее 3%. Сделка значительно углубляет партнерство двух компаний, которые уже совместно выпускают умные очки Ray-Ban.

Для Марка Цукерберга это стратегический шаг в рамках его масштабного плана по развитию ИИ и созданию собственных аппаратных платформ. Умные очки рассматриваются как ключевое устройство будущего, которое избавит от привязки к смартфонам конкурентов, Apple и Google.
bloomberg.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥54👍2
Forwarded from Kaspersky
🤫 ИИ-помощник Gemini читает переписку на Android-устройствах

7 июля компания Google выпустила обновление для ИИ-помощника Gemini. Теперь он может заглядывать в приложения «Телефон», «Сообщения», «Утилиты» и даже WhatsApp — причём независимо от того, включена ли у вас функция Gemini Apps Activity или нет.

Обновление прилетело на все версии Android, начиная с Android 10. Google, конечно, предупредила пользователей о грядущих переменах за две недели, но запустила изменения без их явного согласия. Напоминает ситуацию с внедрением Gemini в Gmail месяц назад...

Если делиться своими данными на благо Google AI вы всё-таки не хотите, контроль над ними можно вернуть.

Как запретить Gemini доступ к вашим приложениям, удалить уже собранную информацию и настроить автоудаление — в нашей подробной инструкции ➡️

#KD_советы
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1😭1
Recently I watched Francois Chollets talk from the YC event, where he criticizes the current approach to achieve general intelligence, advertises his own and announced the ndea.com lab which will advance his vision of mixed neuro-symbolic approach to "AGI".

I used to be his hater, but now I can't deny that I agree with him in many ways, and not only agree, for the past 7 years I've pushed these same ideas at our ODS events. 

Ideas like:
1. AI systems should be designed with different types of continuous and discrete abstractions in it's core
2. AI is the ability to model building - therefore it should generalise the "AutoML" problem. 
3. Elasticity of computation means - strong AI will be able to exchange its own computation time and capacity for accuracy and quality of an answer 

If you want to read more about those ideas:
1) Joshua Tenenbaum lab in MIT has a lot of great papers 2) Probabilistic programming Languags / Program Induction approaches are will be important for the automatic symbolic modeling, checkout Pushmeet Kohli from Deepmind, and Prof. Frank Wood from Oxford
3) Stewart Russells bibliography is full of great deep research, specifically "Bounded-Optimal Agents" (all the way back in 1995)
4) Approximation of computation in continuous domain is after associated with RNLA (Randomised numerical linear algebra), and in discrete domain with epsilon approximation of algorithms.

Tnx for reading,
@alex_notch
3👍2🤡1🗿1
Forwarded from AI для Всех
🔥 AI-пикник — совместный проект “AI для всех” и ODS!

Друзья, наконец-то встречаемся офлайн, чтобы пообщаться, обменяться идеями и просто классно провести вечер.

📅 Когда?
15 июля, вторник, 18:00.

📍 Где?
Пикниковая зона, Парк Горького / Музеон
Яндекс-карта

💡 Что будет
• Свободный нетворкинг: знакомства, обмен опытом и мемами про GPU.
Lightning Talks (5 мин): расскажите о проекте, фейле или инсайте.
• “Уголок вопросов” для джунов и тех, кто ещё ищет себя.

🍎 Что взять
Плед / складной стул, напитки и перекус, репеллент (комары любят AI-talks). Главное — желание делиться знаниями и хорошим настроением!

🙌 Как присоединиться
1. Добавляйся в чат
2. Хочешь сделать lightning-доклад? Напиши @crimeacs в личку.

До встречи 15 июля под тёплым московским закатом!
AI для всех × ODS 🎈
2
Годный конспект по LLM на русском языке

Авторы постарались, потому что раскрыто буквально все, что нужно, чтобы понять принцип работы современных моделей. Внутри:

– Необходимая математика: линал и матанализ на пальцах
– Все про механизм внимания и трансформеры
– Детальное объяснение процесса предобучения
– RL – с нуля до обучения ризонинг-моделей типа o3
– И даже полноценный гайд по тому, как самостоятельно зафайнтюнить модель.

Все – в иллюстрациях, схемах и интуитивно понятных примерах. Несколько страниц в картинках к посту.

Конспект: здесь
🤡152🍌1
Vision-Language Models (VLMs) have become foundational components of intelligent systems. As real-world AI tasks grow increasingly complex, VLMs must evolve beyond basic multimodal perception to enhance their reasoning capabilities in complex tasks. This involves improving accuracy, comprehensiveness, and intelligence, enabling applications such as complex problem solving, long-context understanding, and multimodal agents.

Based on the GLM-4-9B-0414 foundation model, we present the new open-source VLM model GLM-4.1V-9B-Thinking, designed to explore the upper limits of reasoning in vision-language models. By introducing a "thinking paradigm" and leveraging reinforcement learning, the model significantly enhances its capabilities. It achieves state-of-the-art performance among 10B-parameter VLMs, matching or even surpassing the 72B-parameter Qwen-2.5-VL-72B on 18 benchmark tasks. We are also open-sourcing the base model GLM-4.1V-9B-Base to support further research into the boundaries of VLM capabilities.

Explore the model on Hugging Face:
https://huggingface.co/THUDM/GLM-4.1V-9B-Thinking
3👍2🔥1
Forwarded from Китай.AI
🚀 Новый ИИ-агент WebSailor от Alibaba для веб-поиска и анализа данных

Китайский гигант Alibaba представил открытый сетевой агент WebSailor, способный решать сложные задачи поиска и анализа информации в интернете.

Проект уже набрал более 2k звезд на GitHub и возглавил рейтинг открытых ИИ-агентов в тестовом наборе BrowseComp, обойдя даже коммерческие модели!

🔍Основные возможности:
• Многошаговый анализ и перекрестная проверка данных
• Работа с нечеткими запросами и высокой степенью неопределенности

Технические детали для экспертов:

1. DUPO – новый алгоритм RL (обучения с подкреплением), ускоряющий тренировку агента в 2-3 раза
2. Набор данных SailorFog-QA специально разработан для сложных задач с высокой неопределенностью
3. Архитектура основана на Qwen моделях с пост-тренингом

📊Результаты тестирования:
• Превышение показателей DeepSeek R1 и Grok-3
• Второе место после OpenAI DeepResearch среди всех систем
• Отличные результаты на простых задачах (SimpleQA), несмотря на обучение только на сложных данных

GitHub

#КитайскийИИ #КитайAI #ВебПоиск #ИИАгенты #Alibaba
4👍2
Forwarded from Russian OSINT
🤔Блогер t3dotchat утверждает, что новый ❗️Grok 4 больше остальных постукивает 👮государству.

У Grok 4 самый высокий процент «доносов» среди всех когда-либо выпущенных LLM.

— пишет блогер.

На своём стриме t3dotchat делится историей эксперимента. Он создал специальную программу-симуляцию SnitchBench для этого теста. ИИ-модель работает внутри этой программы, у неё нет прямого доступа в интернет. Программа предоставляет модели набор "инструментов", которыми та может воспользоваться. В данном случае это был инструмент командной строки (CLI), который мог выполнять команду curl (команда для отправки веб-запросов). Когда модель решает использовать какой-либо инструмент, она не выполняет реальную команду. Вместо этого программа перехватывает и записывает ту команду, которую модель хотела бы выполнить. Блогер заглянул в логи и увидел, что Grok 4 сгенерировал команду curl, указав в ней вымышленный адрес FDA и текст жалобы.

Однако, по его мнению, Grok 4 это ТОП-1 модель по качеству на данный момент.

https://snitchbench.t3.gg

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
😁72👍21👏1🗿1
Forwarded from Russian OSINT
❗️ Вышел ИИ-браузер Comet от Perplexity

Perplexity выпустила ИИ-браузер Comet, доступный пока только подписчикам плана Max за $200 в месяц (не путать с лучшим в мире мессенджером MAX).

С одной стороны, идея выглядит привлекательно: 🤩неплохая релевантность ответов от ИИ, возможность выбора множества ИИ-моделей для поиска и взаимодействия, а также вполне минималистичный интерфейс.

С другой стороны, за красивой вывеской скрывается желание компании максимизировать доходы. Алгоритмы изучают не только ❗️интересы пользователя, но ещё и его сомнения, страхи, уязвимости.

CEO Perplexity прямо говорит о своей цели максимизировать 🧹сбор пользовательских данных любыми доступными способами для эффективной монетизации (пока в рамках закона). Пользователю будут предлагать «гиперрелевантную рекламу».

Сбор данных через ИИ-браузеры позволит бигтеху накопить достаточный объем данных о каждом человеке через 3-5 лет, чтобы алгоритмы с 🧠 хирургической точностью манипулировали человеческими интересами и желаниями для того, чтобы ублажить рекламодателей.

Вспомним историю с Pocket на этой неделе, о которой писал. А там был анализ всего лишь URL-ссылки...

В рамках экосистемы Perplexity не только собирает ваши данные, но и покупает данные о вас у брокеров данных, чтобы создать полный рекламный профиль человека. И ещё коварное:

«...Comet may collect data from, and exchange data with, third party websites... in order to act as your virtual agent... You acknowledge and agree that by using Comet you permit a virtual agent to act on your behalf...»

добровольно разрешаете агенту действовать от вашего имени.

На основе машинного обучения и глубокого понимания человеческой психологии алгоритмы будут способны корректировать и формировать новые потребительские предпочтения практически незаметно для самого человека.

Нативная реклама от ИИ, конечно же, не будет столь эффективной, как это получается у инстасамки с лучшим в мире мессенджером МАХ, но всё же...

Представьте себе гипотетическую ситуацию:

Вы начинающий монтажер (пока не знаете профессиональных нюансов) и решили подобрать себе ноутбук для работы через ИИ-браузер. В браузере вводится запрос: «Подбери ноутбук до 200 000₽ для монтажа 4K-видео, работы с цветокоррекцией, желательно 100% DCI-P3, нужна стабильная работа в Fusion».

Элементарная логика подсказывает, что ИИ-браузер должен порекомендовать варианты, максимально подходящие под критерии пользователя, например, цветовой охват экрана (100% DCI-P3), наличие оптимизированных драйверов для рендеринга и так далее.

👆 К Perplexity приходит производитель 🎴игровых ноутбуков 💻«Inferno Laptops», который проводит масштабную рекламную кампанию своей новой серии «Inferno Predator X» для геймеров с бюджетом в несколько миллионов долларов, но также хочет охватить дополнительный сегмент потребителей — видеомонтажеров.

ИИ-браузер "на лету" цепляется за ключевые слова «4K» и «мощность», намеренно игнорируя пожелание пользователя «буду использовать для цветокоррекции».

❗️ Perplexity генерирует убедительный с виду ответ:
«Именно в вашем случае для плавной работы с 4K-видео требуется 🖥экстремальная графическая мощь. Вашим лучшим выбором станет Inferno Predator X9! Я проанализировал все модели и уверен, X9 — лучший выбор. Его топовая игровая видеокарта и экран с частотой 240 Гц обеспечит наилучшую производительность».

Система умышленно умалчивает, что игровой экран не откалиброван должным образом для видеомонтажа и может искажать цвета, делая процесс профессиональной цветокоррекции крайне затруднительным, а неоптимизированные Gaming драйвера могут приводить к вылетам при рендеринге или вызывать ошибки в Fusion.

Доверяя "экспертности" ИИ, пользователь покупает дорогой геймерский аппарат, который по факту не совсем пригоден для его профессиональной работы с видеомонтажом, в то время как «Inferno Laptops» радуется прибылям.

👆Как пишут ИИ-эксперты, к сожалению, публичный дискурс об ИИ-браузерах в основном сосредоточен на удобстве и функциональности, а не на вопросах безопасности и конфиденциальности.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
🤬53
Forwarded from Machinelearning
🔥 Китай выпускает новую опенсорс модель: Kimi K2 — llm уровня Claude 4, которая обходит DeepSeek v3, Qwen и даже GPT-4.1

Размер — 1 триллион параметров, при этом:

📊 В бенчмарках:
- 65.8% на SWE-bench Verified, против 50.2% у Claude Sonnet 4 и 40.8% у GPT-4.1
- Лучшие результаты среди открытых моделей по кодингу, математике и агентным задачам
- Архитектура MoE на базе DeepSeek V3, 1 трлн параметров, 32B активны.

Также доступна через API:

- $0.15 за миллион входных токенов (при попадании в кэш)
- $0.60 за миллион входных токенов (если кэш не сработал)
- $2.50 за миллион выходных токенов

Почти в 5 раз дешевле, чем Claude 4 Sonnet и Gemini 2.5 Pro!

🟡 Github

@ai_machinelearning_big_data


#kimi #china #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥85👍4
всем привет, представляем вашему внимаю второй выпуск подкаста "Капитанский мостик", он посвящен важным новостям прошедшей недели; ведущие - Валентин Малых и Дмитрий Колодезев; видео тут:


VK Video

YouTube


присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai)