Forwarded from 📚Python Books
Audio, Video, and Webcams in Python (Lost Chapter from Automate the Boring Stuff)
📕 Book
@pythonlbooks
📕 Book
@pythonlbooks
Anthropic just released a research paper.
Inverse Scaling in Test-Time Compute
📚 Читать
@datascienceiot
Inverse Scaling in Test-Time Compute
📚 Читать
@datascienceiot
Разработан метод, который позволяет видеть, как внутри ИИ появляются смыслы и менять их в процессе генерации без переобучения модели
Исследователи из T-Bank AI Research представили на ICML 2025 метод, позволяющий анализировать и управлять поведением языковых моделей без переобучения. Он отслеживает, как смыслы формируются внутри модели, и позволяет точечно усиливать или подавлять темы в генерации текста. Метод не требует дополнительных расходов и применим для уже обученных LLM.
📚Paper
@datascienceiot
Исследователи из T-Bank AI Research представили на ICML 2025 метод, позволяющий анализировать и управлять поведением языковых моделей без переобучения. Он отслеживает, как смыслы формируются внутри модели, и позволяет точечно усиливать или подавлять темы в генерации текста. Метод не требует дополнительных расходов и применим для уже обученных LLM.
📚Paper
@datascienceiot
Deep Research Agents with Test-Time Diffusion
Google keeps pushing on diffusion.
📚Paper
@datascienceiot
Google keeps pushing on diffusion.
📚Paper
@datascienceiot
Schmidhuber’s Fast-Weight work of 1991-92 introduced an explicit mechanism for token-to-token interaction inside recurrent neural networks (RNNs).
Each time step wrote an outer-product fast weight that linked the current hidden state (a “key”) with a “value.”
📚Статья
@datascienceiot
Each time step wrote an outer-product fast weight that linked the current hidden state (a “key”) with a “value.”
📚Статья
@datascienceiot
На ИТ-Пикнике планируют поднять темы о том, как ИИ учится рассуждать, как устроено автономное вождение, зачем людям нужен опенсорс и кто кого доучит: GenAI или платформы. Крупнейший ИТ-фестиваль пройдет уже в следующую субботу.
@datascienceiot
@datascienceiot
Share Your Attention: Transformer Weight Sharing via Matrix-based Dictionary Learning
📚 Read
@datascienceiot
📚 Read
@datascienceiot