Машиннное обучение | Наука о данных Библиотека
16.9K subscribers
751 photos
10 videos
21 files
652 links
админ - @workakkk

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

№ 5037635661
Download Telegram
Calculus 1 for Honours Mathematics

🔗 Book

@machinelearning_books
👍63🔥1
🖥 t.iss.one/haskell_tg - Haskell входит в число наиболее востребованных функциональных языков программирования.

В нашем новом канале, вы найдете множество уроков, книг и гайдов для погружения в этот мощный язык с нуля.

Отличная возможность не только выучить новый язык, но и возможность прокачать свои навыки программирования.

t.iss.one/haskell_tg - стоит подписаться!
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4👍21
🔥 В репозитории на GitHub с более чем 12 тысячами звезд содержится интерактивная Google-таблица.

В нее нужно вставить свой токен от модели Claude, после чего можно приступить к обучению, выполняя уроки и задания. Помимо стандартных советов о выборе профессии, учебник охватывает такие важные темы, как:

— Форматирование результатов;
— Поэтапный анализ (Pre-cognition);
— Метод Few-shot-промптов;
— Проверка на ложные выводы и многое другое.

Ссылки для доступа:
Github
Docs

@machinelearning_books
👍63🔥2
🔥 Огромная бесплатная книга по SQL! (500+ страниц!)

🔗 Ссылка: *клик*

@sqlhub
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍5🔥3
В «Золотом Яблоке» можно создавать кастомные подарочные карты с дизайном от YandexART 🎨

«Золотое Яблоко» внедрило Yandex AI Rendering Technology — диффузионную нейросеть, которая создаёт изображения в ответ на текстовые запросы. Теперь она генерирует уникальные подарочные карты по запросам покупателей.
Пока генерация работает на сайте, а в декабре заработает и в приложении. С безопасностью, кстати, всё в порядке: сервис не делает дизайны на спорные темы.

Нейросеть можно использовать и в других сценариях:
генерировать материалы для сайта или брендбука;
придумывать маскотов;
создавать фирменные иконки и логотипы.

Тем, кто собирается решать с помощью нейросетей бизнес‑задачи, рекомендуем попробовать Playground в консоли Yandex Cloud.
🥴43👍3🔥3
📖 Разработчик из DeepMind выпустил бесплатное руководство по обучению нейросетей с использованием методов подкрепления (Reinforcement Learning, RL).

Для специалистов в области машинного обучения (ML) оно станет настоящей находкой для ближайшего вечера:

- Введение — основные принципы RL и примеры применения.
- Value-based RL — базовые концепции метода.
- Policy-based RL — ключевые стратегии оптимизации действий.
- Model-based RL — техники планирования решений.
- Другие аспекты RL — использование в языковых моделях (LLM), пути к созданию общего искусственного интеллекта (AGI), разработка функций вознаграждения, иерархия задач и многое другое.

📌 Читать

@machinelearning_books
11👍5🔥2💩1
Forwarded from Machinelearning
📌Интерактивное руководство по Prompt Engineering для Ollama.

Репозиторий на Github c набором ipynb-туториалов по Prompt Engineering для освоения методов создания оптимальных промптов для модели Qwen2.5-14B.

Руководство разделено на 9 глав с практическими упражнениями и приложением с "продвинутыми" методами. В каждой главе есть "Example Playground" для экспериментов с примерами и наблюдения за изменениями в инференсе Ollama.

Руководство использует модель Qwen 2.5-14B, но все материалы подходят и для модели Qwen 2.5-7B.

▶️Содержание:

Начальный уровень

🟢Глава 1: Базовая структура промпта.
🟢Глава 2: Ясность и прямота.
🟢Глава 3: Назначение ролей.

Средний уровень

🟢Глава 4: Отделение данных от инструкций.
🟢Глава 5: Форматы данных инференса и речь для Ollama.
🟢Глава 6: Рассуждение (шаг за шагом).
🟢Глава 7: Использование примеров.

Продвинутый уровень

🟠Глава 8: Избегание галлюцинаций.
🟠Глава 9: Создание сложных промптов (примеры использования для реальных задач):

🟢Сложные промпты с нуля - чатбот;
🟢Сложные промпты с нуля по юридическим услугам;
🟢Упражнение: Сложные промпты для финансовых услуг;
🟢Упражнение: Сложные промпты для программирования.

Приложение: За пределами стандартных подсказок

🟠Цепочка промптов.
🟠Использование инструментов.


📌Лицензирование: MIT License.


🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Github #Tutorial #Ollama
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍1🔥1💩1
Forwarded from Haskell
🖥 Учебник по Haskell

Добро пожаловать в мир функционального программирования, строгой типизации, чистых функций, ленивых вычислений и классов типов.

Всё это вы найдёте в замечательном языке программирования Haskell.

Если вы просто где-то слышали о Haskell, и пока это описание ни о чём не говорит, ничего, об этом и о многом другом вы узнаете со страниц этой книги.

Haskell был основан на исходе восьмидесятых, как общий язык для программистов, интересующихся функциональным программированием и ленивой стратегией вычислений.

Это свободный язык, он разрабатывается комитетом разработчиков, программистов, математиков, информатиков, и просто увлечённых программированием людей. Основной компилятор языка GHC разрабатывается в Microsoft Research, но несмотря на это легко доступен в интернет. Вы можете установить его через Haskell Platform (для начинающих) или напрямую с сайта GHC (для гиков и любителей квестов). Ещё нам понадобится редактор с подсветкой синтаксиса Haskell.

Подойдёт простой gedit или более тяжёлые vim и Emacs. Есть и IDE для Haskell. Это Leksah, но пока ещё она совсем юная.

Итак, устанавливаем компилятор GHC подбираем редактор по вкусу и в добрый путь!

📚 Учебник

@haskell_tg
Please open Telegram to view this post
VIEW IN TELEGRAM
👍94🔥1
🖥 Полный справочник по SQL!

🔗 Ссылка: *клик*

@machinelearning_books
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍73
📖 Эта статья посвящена задаче токенизации, которая в данном контексте рассматривается как задача сжатия набора данных до определенного числа символов!

🌟 Исследователи доказали NP-полноту двух вариантов токенизации: первый — это прямая токенизация, при которой создается словарь для представления данных, второй — токенизация снизу вверх, где используется последовательность операций объединения элементов. Оба этих метода могут быть использованы для сжатия данных и определения минимального количества символов для представления данных в сокращенной форме.

🔗 Читать: *клик*

@machinelearning_books
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63
Forwarded from Machinelearning
📌Роадмэп воспроизведения o1 от OpenAI с фокусом на RL.

Fundan University совместно с Shanghai AI Laboratory составили дорожную карту, как повторить возможности модели o1 от OpenAI.

Главное – обучение с подкреплением, есть 4 важных условия, которые нужно сделать, чтобы добиться такого же уровня, как у o1:

🟢Инициализация политики
🟢Разработка вознаграждения
🟢Поиск
🟢Обучение

Инициализация политики начинается с предварительного обучения LLM на больших текстовых датасетах. Они должны быть из разных областей и включать помимо классических задач NLP, примеры логического рассуждения, знаний о мире и демонстрировать паттерны навыка сравнения. Это позволит модели освоить базовое понимание языка и навыки рассуждения.

Последующая тонкая настройка на инструкциях преобразует модель из "предсказателя следующего токена" в полноценного агента, который может выполнять задачи. Тут важно добавить в процесс человекоподобных рассуждений через SFT или подсказки, чтобы научить модель исследовать пространство решений. Например, самооценке и самокоррекции, как это происходит у OpenAI o1.

Разработка вознаграждения дает модели четкую и понятную обратную связь не только в конце решения задачи, но и на промежуточных этапах. Правильно спроектированная система с использованием внутренних и внешних функций крайне важна, с ней модель учится лучше.

Поиск - решающий навык для генерации качественных решений на этапах обучения и тестирования. Использование методов Best-of-N, Beam Search, MCTS позволяет получить лучшие из возможных результатов. Например, MCTS подходит для более широкого исследования пространства решений.

Обучение использует данные, полученные в процессе поиска для улучшения политики модели. Чем больше параметров и объем поисковых данных - тем лучше производительность в итоге. По сути, обучение и поиск работают как "суперсила", способствуя развитию модели.

Выводы, сделанные в процессе исследования авторами сводятся к тому, что существующие открытые проекты, которые пытаются воспроизвести o1 - вариации такого метода обучения. Обучение с подкреплением - ключ к созданию "рассуждающей модели".

🟡Arxiv


@ai_machinelearning_big_data

#AI #ML #LLM #Paper #RL
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥63🤔2💘1
Mathematical Foundations of Machine Learning

📓 book

@machinelearning_books
👍9🔥54💘2
Lecture Notes on Principal Component Analysis by Laurenz Wiskott

📕 lectures

@datascienceiot
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍1
⚡️ LLMs for AGI

В книге подробно обсуждаются фундаментальные проблемы которые необходимо решать для того, чтобы LLM достигли общего интеллекта человеческого уровня.

Отличное чтение для всех, кто интересуется исследованиями в области AGI.

📌 Читать
🔥83👏2🤔1🥴1
Forwarded from Machinelearning
🧠 Огромный гайд по по обучению с подкреплением

Свежее руководство по обучению с подкреплением, которое очень подробно объясняет всю теорию и детали реализации каждого алгоритма в этой области со множеством примеров и кодом.

Наслаждайтесь чтением)

📌 Читать

@ai_machinelearning_big_data


#ml #reinforcementlearning #rl #guiede
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
14👍4🔥21