SRT-H: A Hierarchical Framework for Autonomous Surgery via Language Conditioned Imitation Learning
📚 Read
@datascienceiot
📚 Read
@datascienceiot
🧠 А вы уверены, что датасет, на котором вы тестируете GNN, вообще имеет смысл?
В обзоре с ICML 2025 команда AI VK разбирает свежую статью о том, как оценивать качество графовых датасетов для задач машинного обучения.
В обзоре с ICML 2025 команда AI VK разбирает свежую статью о том, как оценивать качество графовых датасетов для задач машинного обучения.
Telegram
AI VK Hub
Всем привет! Продолжаем обозревать статьи, представленные на ICML.
Сегодня кратко рассмотрим статью, которая посвящена проблемам оценки качества наборов данных для графового машинного обучения.
В машинном обучении принято сравнивать новые алгоритмы с предыдущими…
Сегодня кратко рассмотрим статью, которая посвящена проблемам оценки качества наборов данных для графового машинного обучения.
В машинном обучении принято сравнивать новые алгоритмы с предыдущими…
Forwarded from 📚Python Books
Audio, Video, and Webcams in Python (Lost Chapter from Automate the Boring Stuff)
📕 Book
@pythonlbooks
📕 Book
@pythonlbooks
Anthropic just released a research paper.
Inverse Scaling in Test-Time Compute
📚 Читать
@datascienceiot
Inverse Scaling in Test-Time Compute
📚 Читать
@datascienceiot
Разработан метод, который позволяет видеть, как внутри ИИ появляются смыслы и менять их в процессе генерации без переобучения модели
Исследователи из T-Bank AI Research представили на ICML 2025 метод, позволяющий анализировать и управлять поведением языковых моделей без переобучения. Он отслеживает, как смыслы формируются внутри модели, и позволяет точечно усиливать или подавлять темы в генерации текста. Метод не требует дополнительных расходов и применим для уже обученных LLM.
📚Paper
@datascienceiot
Исследователи из T-Bank AI Research представили на ICML 2025 метод, позволяющий анализировать и управлять поведением языковых моделей без переобучения. Он отслеживает, как смыслы формируются внутри модели, и позволяет точечно усиливать или подавлять темы в генерации текста. Метод не требует дополнительных расходов и применим для уже обученных LLM.
📚Paper
@datascienceiot
Deep Research Agents with Test-Time Diffusion
Google keeps pushing on diffusion.
📚Paper
@datascienceiot
Google keeps pushing on diffusion.
📚Paper
@datascienceiot
Schmidhuber’s Fast-Weight work of 1991-92 introduced an explicit mechanism for token-to-token interaction inside recurrent neural networks (RNNs).
Each time step wrote an outer-product fast weight that linked the current hidden state (a “key”) with a “value.”
📚Статья
@datascienceiot
Each time step wrote an outer-product fast weight that linked the current hidden state (a “key”) with a “value.”
📚Статья
@datascienceiot