Интересное что-то
542 subscribers
2.75K photos
253 videos
140 files
4.55K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.iss.one/asisakov_channel
Чат: https://t.iss.one/youknowds_chat
Download Telegram
Forwarded from Kali Novskaya
🌸Распутываем клубок нейросетей: подарок от Anthropic🌸

Прекрасная новость — опенсорс от Anthropic!

Авторы работ по интерпретируемости LLM выложили в опенсорс инструменты, чтобы работать со всеми открытыми весами и отслеживать "мыслительный процесс" вовремя генерации.
Теперь сообщество может применять метод для всех открытых систем.
Подход заключается в создании графов атрибуции, которые показывают, какие внутренние шаги предприняла модель для принятия конкретного решения. Библиотека позволяет
🟣найти "логическую цепочку" принятия решения. То есть показывает, какие части модели влияют друг на друга и на итоговый ответ. Например, как конкретное слово, фраза или кусочек кода на входе влияет на результат через внутренние признаки модели.
🟣нарисовать наглядную схему (граф) этой цепочки. Её можно смотреть, исследовать и подписывать важные элементы.
🟣вмешиваться в работу модели. Вы можете вручную изменить внутренние признаки модели и посмотреть, как это повлияет на её ответ.
🟣менять данные, переучивать модель и сравнивать результаты — улучшать стабильность, фактологичность, непредвзятость ответов.

🌸К чему это можно применить?

К очень многому:
— к лучшему отслеживанию логики модели в цепочке рассуждений и ризонинге
— контролю inference time training, улучшенному планированию и дообучению моделей, в том числе и для агентов
— повышению безопасности работы моделей с джейлбрейками и опасными примерами
— логике работы LLM с разными языками, логикой машинного перевода и мультиязычного ризонинга
— повышению качества в сложных out of domain областях: медицине, юриспруденции, поэзии.

Можно посмотреть, как это работает, на примере Gemma-2-2b и Llama-3.2-1b
Ноутбук
Лицензия на все — MIT!

🟣Веб-интерфейс
🟣Блогпост 
🟣Github
🟣Статья про интерпретируемость - On the Biology of a Large Language Model
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Kali Novskaya
🌸Большая Книга ИИ теперь на Вики🌸
#nlp #про_nlp

На днях Сергей Марков выложил свою книгу "Охота на электроовец: Большая Книга Искусственного Интеллекта" в формате Вики.

Теперь каждую главу можно прочитать (и даже прокомментировать) отдельно, что очень удобно для 1200+ страничного двухтомника.
Это самая полная история всего, что происходило, включая весь 20 век и сильно раньше, а так же всеми любимый генИИ и его предпосылки.

🟣Заглавная страница
🟣Оглавление


Двухтомник можно скачать в pdf, epub и других форматах:
https://markoff.science/
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Kali Novskaya
🌸Лучшая лекция ICLR 2025 🌸
#nlp #про_nlp #nlp_papers

Одной из главных лекций на ICLR в этом году можно смело назвать доклад Тима Роктешела (Tim Rocktaeschel, DeepMind) — Open Endedness, World Models, and the Automation of Innovation. Доклад наконец выложили на ютуб (мне даже не пришлось ее пиратить для вас)

Это очень хороший и своевременный обзорный доклад про новые приоритеты в исследовании ИИ: reinforcement learning, фундаментальные модели, проблемы бенчмарков, агентов и акселерации науки.

🟣Abstract
Погоня за AGI требует перехода от узконаправленной оптимизации целей к принятию концепции Открытой Эволюции (Open-Endedness) — исследовательской парадигмы, внедрённой в области ИИ Стэнли, Леманом и Клуном. Она фокусируется на системах, способных бесконечно генерировать последовательности новых, но обучаемых артефактов. В этом докладе я представлю нашу работу по созданию крупномасштабных фундаментальных моделей мира (foundation world models), которые способны генерировать разнообразные и многогранные среды. Эти среды, в свою очередь, могут использоваться для обучения более универсальных и устойчивых агентов. Кроме того, я утверждаю, что связь между Открытой Эволюцией и Фундаментальными Моделями указывает на возможность автоматизации самого процесса инноваций. Это слияние уже даёт практические результаты: оно позволяет открывать способности моделей к самоулучшению (self-improvement), автоматизировать prompt engineering и red-teaming, и проведение дискуссий между ИИ-моделями. Всё это предвосхищает будущее, в котором ИИ будет сам двигать свои открытия вперёд.

🟣Лекция со слайдами тут:
https://www.youtube.com/watch?v=ZZC_xqRgcHo&ab_channel=MatijaGrcic

🟣Некоторые упомянутые статьи:
Prompt Breeder
Rainbow teaming
MLE bench
Awesome Open-endedness
METR и поиск экспоненты
Sakana AI AI Scientist
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ML Advertising
Zero-shot vs Few-shot. Пишем промпты эффективно

Few-shot prompting
Здесь мы представляем модели примеры с инструкцией, как ей следует себя вести. После этого надеемся, что модель нас поймет, т.е. выучит in-context learning и выполнит запрос

Пример

Запрос:
Красный - один
Оранжевый - два
Желтый - три
Зеленый - четыре
Голубой - пять
Синий - шесть
Фиолетовый -

Ответ:
семь


Zero-shot prompting
Это противоположность Few-shot. Здесь мы напрямую запрашиваем ответ у модели без дополнительных инструкций и надеемся, что ее достаточно хорошо обучили, чтобы она поняла, что мы от нее хотим.

Пример

Запрос:
Определи характер отзыва (позитивный, негативный или нейтральный).
Отзыв: Фильм в целом неплох.

Ответ:
Нейтральный


Какие ограничения ?
Zero-Shot prompting неплохо себя показывают на каких-то простых задачах, основанных на общих знаниях. Few-shot уже может решать более сложные задачи и может помочь когда полноценный fine-tuning невозможен. Или когда нужно выучить несложные концепции. Еще Few-shot может повысить точность ответа.

Но и Few-shot - это не панацея. Он все еще неспособен решать достаточно сложные задачи на рассуждение. Если задача требует нескольких шагов рассуждения, даже набора примеров может оказаться недостаточно, чтобы LLM смогла найти нужную закономерность. Здесь обращаемся к Chain of Thoughts.

Иногда можно увидеть термины One-shot, Two-shot Prompting и т.д. Это просто частные случаи Few-shot prompting и они указывают на количество подаваемых в модель примеров.
Forwarded from GOS (Gos)
Камрад Aleks напомнил вот про этот отличный репозиторий - https://github.com/gseth/ControlAltAI-Nodes
Я тоже его очень рекомендую. Так много достойных и интересных нод.

#Comfy #novice
Вместе с Cloud․ru собрали модели, которые реально работают:
- отличная поддержка русского,
- быстрый старт без боли,
- легко встраиваются в агентов и ассистентов,
- бюджетно гоняются

Эти модели — идеальный выбор для MVP, экспериментов и продакшн-инференса.
Всё open-source, а лучшее место чтобы развернуть опенсурс в России быстро и выгодно — Evolution ML Inference
оказывается папир вышел вместе с моделью

придумали бенч, придумали конкатить vae, собственно вот что получилось