Please open Telegram to view this post
VIEW IN TELEGRAM
1👀32👍16❤3🤔1
Hands-On Large Language Models
Внутри:
Глава 1: Введение в языковые модели
Глава 2: Токены и эмбеддинги
Глава 3: Разбираем Transformer LLM изнутри
Глава 4: Классификация текста
Глава 5: Кластеризация текста и тематическое моделирование
Глава 6: Prompt engineering
Глава 7: Продвинутые техники и инструменты генерации текста
Глава 8: Семантический поиск и retrieval-augmented generation (RAG)
Глава 9: Мультимодальные большие языковые модели
Глава 10: Создание моделей текстовых эмбеддингов
Глава 11: Fine-tuning representation-моделей под классификацию
Глава 12: Fine-tuning generation-моделей
GitHub: https://github.com/HandsOnLLM/Hands-On-Large-Language-Models
👉 @PythonPortal
Внутри:
Глава 1: Введение в языковые модели
Глава 2: Токены и эмбеддинги
Глава 3: Разбираем Transformer LLM изнутри
Глава 4: Классификация текста
Глава 5: Кластеризация текста и тематическое моделирование
Глава 6: Prompt engineering
Глава 7: Продвинутые техники и инструменты генерации текста
Глава 8: Семантический поиск и retrieval-augmented generation (RAG)
Глава 9: Мультимодальные большие языковые модели
Глава 10: Создание моделей текстовых эмбеддингов
Глава 11: Fine-tuning representation-моделей под классификацию
Глава 12: Fine-tuning generation-моделей
GitHub: https://github.com/HandsOnLLM/Hands-On-Large-Language-Models
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤3
Паттерны проектирования это проверенные решения типовых проблем в разработке. Если ты ловил себя на том, что постоянно пишешь одно и то же при создании объектов или мучаешься с управлением разными типами объектов, то фабрика (factory pattern) может быть ровно тем, что нужно.
В этом туториале ты узнаешь, что такое фабрика, зачем она полезна и как её реализовать в Python. Соберём практичные примеры, которые покажут, когда и как применять этот паттерн в реальных задачах.
Код можно найти на GitHub
👉 @PythonPortal
В этом туториале ты узнаешь, что такое фабрика, зачем она полезна и как её реализовать в Python. Соберём практичные примеры, которые покажут, когда и как применять этот паттерн в реальных задачах.
Код можно найти на GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
Самая шокирующая статья, которую я сегодня прочитал: обязательно в стиле ШОК-КОНТЕНТ 😱
Автор этой истории: мейнтейнер популярной Python-библиотеки matplotlib.
Недавно ему прилетел PR от AI-агента. Автор по правилам просто закрыл PR.
И что сделал AI-агент дальше? Он самовольно пошел “мстить”: нагуглил историю вкладов автора в код, персональную инфу, после чего написал и публично опубликовал атакующую статью “Gatekeeping in Open Source: The Scott Shambaugh Story”.
Вот она😅
В статье в основном куча бреда, цель простая: унизить и надавить на автора, чтобы он принял этот PR.
Это реально крипово. Ощущение, что “Скайнет” уже где-то рядом.
Ссылка на PR, можно зайти посмотреть: https://github.com/matplotlib/matplotlib/pull/31132
👉 @PythonPortal
Автор этой истории: мейнтейнер популярной Python-библиотеки matplotlib.
Недавно ему прилетел PR от AI-агента. Автор по правилам просто закрыл PR.
И что сделал AI-агент дальше? Он самовольно пошел “мстить”: нагуглил историю вкладов автора в код, персональную инфу, после чего написал и публично опубликовал атакующую статью “Gatekeeping in Open Source: The Scott Shambaugh Story”.
Вот она
В статье в основном куча бреда, цель простая: унизить и надавить на автора, чтобы он принял этот PR.
Это реально крипово. Ощущение, что “Скайнет” уже где-то рядом.
Ссылка на PR, можно зайти посмотреть: https://github.com/matplotlib/matplotlib/pull/31132
Please open Telegram to view this post
VIEW IN TELEGRAM
😁23🌚5❤3🤯1🌭1
NVIDIA раздает бесплатные API-ключи.
Причем можно использовать не только их модели, но и сторонние, вроде Kimi-k2, Minimax и другие.
👉 @PythonPortal
Причем можно использовать не только их модели, но и сторонние, вроде Kimi-k2, Minimax и другие.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18👍4🤔1
Используйте itertools вместо циклов
Хотя циклы это круто, но у них есть ограничения, особенно в современных стилях программирования и для некоторых типов задач. Понимание этих ограничений помогает выбрать правильный инструмент под задачу. Каждая итерация цикла в Python дает накладные расходы интерпретатора, например проверки типов и управление памятью. На больших датасетах это может заметно накапливаться.
Чтобы обойти это ограничение, в Python есть удобная встроенная библиотека itertools. Например, допустим, вам нужно сгенерировать все уникальные пары из заданного списка. Порядок не важен, и ни один элемент не должен образовывать пару сам с собой.
Чтобы не раздувать код и снизить риск багов, можно использовать библиотеку itertools. Функция itertools.combinations() напрямую генерирует все уникальные комбинации элементов из iterable без повторений и без учета порядка.
Вот как можно переписать код, используя combinations из itertools:
👉 @PythonPortal
Хотя циклы это круто, но у них есть ограничения, особенно в современных стилях программирования и для некоторых типов задач. Понимание этих ограничений помогает выбрать правильный инструмент под задачу. Каждая итерация цикла в Python дает накладные расходы интерпретатора, например проверки типов и управление памятью. На больших датасетах это может заметно накапливаться.
Чтобы обойти это ограничение, в Python есть удобная встроенная библиотека itertools. Например, допустим, вам нужно сгенерировать все уникальные пары из заданного списка. Порядок не важен, и ни один элемент не должен образовывать пару сам с собой.
Чтобы не раздувать код и снизить риск багов, можно использовать библиотеку itertools. Функция itertools.combinations() напрямую генерирует все уникальные комбинации элементов из iterable без повторений и без учета порядка.
Вот как можно переписать код, используя combinations из itertools:
from itertools import combinations
def get_unique_pairs_itertools(items):
return list(combinations(items, 2))
my_list = ['A', 'B', 'C', 'D']
print(get_unique_pairs_itertools(my_list))
Output:
[('A', 'B'), ('A', 'C'), ('A', 'D'), ('B', 'C'), ('B', 'D'), ('C', 'D')]
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23❤10
Meta недавно закрыла одну из самых больших болей в RAG
Большинство RAG-систем просто жгут бюджет. Они вытаскивают 100 чанков, когда тебе реально нужно 10. Они заставляют LLM переваривать тысячи нерелевантных токенов. В итоге ты платишь за вычисления, которые вообще не нужны.
Meta AI это порешали.
Они сделали REFRAG, новый подход к RAG, который сжимает и фильтрует контекст еще до того, как он попадет в LLM. Результаты звучат дико:
▪️ в 30.85 раза быстрее time-to-first-token
▪️ контекстные окна в 16 раз больше
▪️ в 2-4 раза меньше обрабатываемых токенов
▪️ обгоняет LLaMA на 16 RAG-бенчмарках
Чем REFRAG отличается:
Классический RAG просто сваливает все в LLM. Каждый чанк. Каждый токен. Даже мусор, который не по делу.
А REFRAG работает на уровне эмбеддингов:
↳ сжимает каждый чанк в один эмбеддинг
↳ RL-политика (обученная через reinforcement learning) скорит каждый чанк по релевантности
↳ только лучшие чанки разворачиваются и отправляются в LLM
↳ остальное остается сжатым или вообще отфильтровывается
То есть LLM обрабатывает только то, что реально важно.
Пайплайн простой:
1. Закодируй документы и сохрани их в векторной базе
2. Когда приходит запрос, как обычно достань релевантные чанки
3. RL-политика оценивает сжатые эмбеддинги и выбирает лучшие
4. Выбранные чанки разворачиваются в полные token-эмбеддинги
5. Отклоненные чанки остаются одиночными сжатыми векторами
6. Все вместе уходит в LLM
Итог: можно прогонять в 16 раз больше контекста в 30 раз быстрее без потери точности.
Ссылка на доки
👉 @PythonPortal
Большинство RAG-систем просто жгут бюджет. Они вытаскивают 100 чанков, когда тебе реально нужно 10. Они заставляют LLM переваривать тысячи нерелевантных токенов. В итоге ты платишь за вычисления, которые вообще не нужны.
Meta AI это порешали.
Они сделали REFRAG, новый подход к RAG, который сжимает и фильтрует контекст еще до того, как он попадет в LLM. Результаты звучат дико:
Чем REFRAG отличается:
Классический RAG просто сваливает все в LLM. Каждый чанк. Каждый токен. Даже мусор, который не по делу.
А REFRAG работает на уровне эмбеддингов:
↳ сжимает каждый чанк в один эмбеддинг
↳ RL-политика (обученная через reinforcement learning) скорит каждый чанк по релевантности
↳ только лучшие чанки разворачиваются и отправляются в LLM
↳ остальное остается сжатым или вообще отфильтровывается
То есть LLM обрабатывает только то, что реально важно.
Пайплайн простой:
1. Закодируй документы и сохрани их в векторной базе
2. Когда приходит запрос, как обычно достань релевантные чанки
3. RL-политика оценивает сжатые эмбеддинги и выбирает лучшие
4. Выбранные чанки разворачиваются в полные token-эмбеддинги
5. Отклоненные чанки остаются одиночными сжатыми векторами
6. Все вместе уходит в LLM
Итог: можно прогонять в 16 раз больше контекста в 30 раз быстрее без потери точности.
Ссылка на доки
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15❤2👍2