Этот репозиторий содержит все, что вам нужно, чтобы прокачать свои навыки работы с #SQL.
Более 100 упражнений и примеров по SQL.
▪Github
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
📹 3blue1brown представил самую короткую и понятную лекцию о нейросетях!
В новом выпуске он рассказывает о механизме внимания и трансформерах. Лекция стала еще более сжатой и увлекательной!
Идеально подходит для абсолютных новичков и даже для тех, кто далек от техники.
Автор уложился всего в 9 минут, чтобы доступно объяснить ключевые аспекты работы нейросети с помощью яркой графики и простых примеров.
📌 Оригинал
@machinelearning_interview
В новом выпуске он рассказывает о механизме внимания и трансформерах. Лекция стала еще более сжатой и увлекательной!
Идеально подходит для абсолютных новичков и даже для тех, кто далек от техники.
Автор уложился всего в 9 минут, чтобы доступно объяснить ключевые аспекты работы нейросети с помощью яркой графики и простых примеров.
📌 Оригинал
@machinelearning_interview
Появился новый сервис для создания умных ассистентов на базе YandexGPT
Разработка от Yandex Cloud позволит компаниям создать своего AI-ассистента с помощью Yandex Cloud ML SDK или реализуя запросы к API на языке программирования.
Это стало возможно благодаря AI Assistant API, который объединяет языковую модель YandexGPT и технологию поиска по базам знаний Retrieval Augmented Generation (RAG) для интеграции с внешними бизнес‑системами. Технология позволит ускорить внедрение языковых моделей в бизнес-процессы в среднем на 30%.
Плюсы AI Assistant API:
- Инструмент содержит все необходимые функции для создания умных помощников: создавать код с нуля не нужно.
- Внутри инструмента реализованы все нужные взаимодействия модели, баз знаний и хранение контекста
- Можно выбрать подходящую версию YandexGPT — Lite или Pro, чтобы адаптировать под свои задачи другие компоненты сервиса: базы знаний и параметры генерации текста.
Даже современные LLM-модели не способны знать все внутренние процессы компании. Могут возникнуть проблемы с тем, чтобы, например, помочь сотруднику с оформлением командировки. Однако с помощью AI-ассистента есть возможность наделить модель этими знаниями. В сервис можно загрузить до 1 000 файлов, максимальный размер каждого файла — 128 МБ.
@machinelearning_interview
Разработка от Yandex Cloud позволит компаниям создать своего AI-ассистента с помощью Yandex Cloud ML SDK или реализуя запросы к API на языке программирования.
Это стало возможно благодаря AI Assistant API, который объединяет языковую модель YandexGPT и технологию поиска по базам знаний Retrieval Augmented Generation (RAG) для интеграции с внешними бизнес‑системами. Технология позволит ускорить внедрение языковых моделей в бизнес-процессы в среднем на 30%.
Плюсы AI Assistant API:
- Инструмент содержит все необходимые функции для создания умных помощников: создавать код с нуля не нужно.
- Внутри инструмента реализованы все нужные взаимодействия модели, баз знаний и хранение контекста
- Можно выбрать подходящую версию YandexGPT — Lite или Pro, чтобы адаптировать под свои задачи другие компоненты сервиса: базы знаний и параметры генерации текста.
Даже современные LLM-модели не способны знать все внутренние процессы компании. Могут возникнуть проблемы с тем, чтобы, например, помочь сотруднику с оформлением командировки. Однако с помощью AI-ассистента есть возможность наделить модель этими знаниями. В сервис можно загрузить до 1 000 файлов, максимальный размер каждого файла — 128 МБ.
@machinelearning_interview
Код Дурова
Yandex B2B Tech запустил сервис для создания ИИ-помощников для бизнеса
Yandex B2B Tech запустила сервис для создания помощников набазе искусственного интеллекта AI Assistant API.
⚡️ "Самая быстрая библиотека глубокого обучения с подкреплением"
Библиотека C++ Deep RL, создана для запуска DL проектов "на лету" за считанные секунды
Что она предлагает:
📐 Высокопроизводительная библиотека C++ Deep RL, оптимизированная для задач непрерывного контроля
✅ Собственные реализации алгоритмов TD 3, PPO, SAC с ускорением CPU/CUDA
✅ Поддержка развертывания микроконтроллеров (ESP32, Teensy, PX4, iOS)
✅ Привязка Python через PyPI для среды залов
🔹 В 2-4 раза быстрее, чем существующие библиотеки RL на CPU / GPU
▪Github
▪Colab
▪Документация
@machinelearning_interview
Библиотека C++ Deep RL, создана для запуска DL проектов "на лету" за считанные секунды
Что она предлагает:
📐 Высокопроизводительная библиотека C++ Deep RL, оптимизированная для задач непрерывного контроля
✅ Собственные реализации алгоритмов TD 3, PPO, SAC с ускорением CPU/CUDA
✅ Поддержка развертывания микроконтроллеров (ESP32, Teensy, PX4, iOS)
✅ Привязка Python через PyPI для среды залов
🔹 В 2-4 раза быстрее, чем существующие библиотеки RL на CPU / GPU
▪Github
▪Colab
▪Документация
@machinelearning_interview
📖 Конспект лекций по теории графов в Университете штата Пенсильвания (для студентов бакалавриата)
📌 PDF: https://roam.libraries.psu.edu/system/files/e-books/MATH485-Graph_Theory.pdf
@machinelearning_interview
📌 PDF: https://roam.libraries.psu.edu/system/files/e-books/MATH485-Graph_Theory.pdf
@machinelearning_interview
для анализа временных рядов.
Это легкая и простая в использовании библиотека .
Она позволяет делать:
- Прогнозирование
- Обработку данных
- Извлечение признаков
- Моделирование
Установка:
pip install --upgrade pip
pip install kats
Пример использования:
# import packages
import numpy as np
import pandas as pd
from kats.consts import TimeSeriesData
from kats.detectors.cusum_detection import CUSUMDetector
# simulate time series with increase
np.random.seed(10)
df_increase = pd.DataFrame(
{
'time': pd.date_range('2019-01-01', '2019-03-01'),
'increase':np.concatenate([np.random.normal(1,0.2,30), np.random.normal(2,0.2,30)]),
}
)
# convert to TimeSeriesData object
timeseries = TimeSeriesData(df_increase)
# run detector and find change points
change_points = CUSUMDetector(timeseries).detector()
`
▪Примеры работы: https://github.com/facebookresearch/Kats/tree/main/tutorials
▪Пакет Kats Python: https://pypi.org/project/kats/
▪Блог Facebook: https://engineering.fb.com/2021/06/21/open-source/kats/
▪Исходный код: https://github.com/facebookresearch/kats
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
#учебник #machinelearning
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
MTS AI идет в Open Source
MTS AI выпустила модель Cotype Nano – открытую языковую модель для решения бизнес-задач на русском языке.
Она обрабатывает до 32,000 токенов за раз, запускается локально на персональных устройствах и подходит для анализа данных, создания контента, перевода и поиска в большом массиве информации.
По бенчмаркам Ru Arena Hard модель — лидер в своём классе (30.2). Доступна бесплатно с возможностью использования в коммерческих целях. Скачать по ссылке.
Подробные технические характеристики — на Хабре.
MTS AI выпустила модель Cotype Nano – открытую языковую модель для решения бизнес-задач на русском языке.
Она обрабатывает до 32,000 токенов за раз, запускается локально на персональных устройствах и подходит для анализа данных, создания контента, перевода и поиска в большом массиве информации.
По бенчмаркам Ru Arena Hard модель — лидер в своём классе (30.2). Доступна бесплатно с возможностью использования в коммерческих целях. Скачать по ссылке.
Подробные технические характеристики — на Хабре.
Forwarded from Machinelearning
Хороших книг по обучению с подкреплением (Reinforcement Learning, RL) уже выпущено достаточно, однако есть пробел между продвинутыми учебниками, в которых основное внимание уделяется одному или нескольким аспектам, и более общими книгами, в которых предпочтение отдается удобочитаемости, а не сложности.
Авторы книги, люди с опытом работы в CS и инжиниринга, подают тему RL в строгом и академическом стиле. Книга основана на конспектах лекций для углубленного курса бакалавриата, который преподается авторами в Тель-Авивском университете.
К этой книге дополнительно идет брошюра с упражнениями и экзаменационными вопросами, которые помогут освоить материал книги на практике. Эти упражнения разрабатывались на протяжении нескольких лет.
Математическая модель книги - Марковский процесс принятия решений (Markov Decision Process, MDP). Основное внимание уделяется: последовательному принятию решений, выбору действий, долгосрочному эффекту от этих действий и разница между немедленным вознаграждением и долгосрочной выгодой.
Тематически книга состоит из двух частей – "Планирование" и "Обучение".
@ai_machinelearning_big_data
#AI #ML #RL #MDP #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ RL за 185 строках с помощью numpy
Блокнот, в котором все подробно описано
- код лаконичен, удобочитаем и снабжен множеством комментариев
- в нем используется только numpy
- хорошая отправная точка для изучения PPO
- заметки, которые помогут в обучении
📌 Ссылка на коллаб
@machinelearning_interview
Блокнот, в котором все подробно описано
- код лаконичен, удобочитаем и снабжен множеством комментариев
- в нем используется только numpy
- хорошая отправная точка для изучения PPO
- заметки, которые помогут в обучении
📌 Ссылка на коллаб
@machinelearning_interview
Forwarded from Machinelearning
QwQ (Qwen with Questions) – экспериментальная исследовательская модель, разработанная Qwen Team с фокусом на развитие способности рассуждения.
QwQ отличается любознательностью, подходя к каждой проблеме – будь то математика, программирование или знания о мире – с подлинным удивлением и сомнением. Прежде чем остановиться на каком-либо ответе, модель подвергает сомнению свои собственные предположения, исследуя разные пути рассуждений в поисках более глубокой истины.
QwQ-32B-Preview, предварительная версия модели, которая демонстрирует аналитические способности в математике и программировании, показывая топовые результаты в тестах:
Архитектура QwQ основана на
transformers
с использованием RoPE, SwiGLU, RMSNorm и Attention QKV bias. Модель имеет 32.5 млрд. параметров, 64 слоя и 40 attention heads для Q и 8 для KV. Контекст модели - 32 768 токенов.⚠️ Как у любого эксперимента, у QwQ есть ограничения:
⚠️ Сообществом LM Studio опубликованы квантованные версии в формате GGUF в разрядности от 3-bit (17.2 Gb) до 8-bit (34.8 GB), совместимые для запуска в
llama.cpp
(release b4191) и LM Studio.from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/QwQ-32B-Preview"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "How many r in strawberry."
messages = [
{"role": "system", "content": "You are a helpful and harmless assistant. You are Qwen developed by Alibaba. You should think step-by-step."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
@ai_machinelearning_big_data
#AI #ML #LLM #QwQ #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
На Хабре вышла статья о современных подходах к оценке языковых моделей. Традиционно используются академические методы оценки (школьные тесты, профэкзамены) и специальные бенчмарки вроде COPA, PIQA для проверки базового понимания контекста, но они не отражают реальной ценности моделей в бизнес-задачах — способности к диалогу, переводу или генерации идей.
Для решения этой проблемы, например, в Яндексе разрабатывают внутренние бенчмарки под каждую практическую задачу YandexGPT, учитывая, что стандартные тесты подвержены протечкам данных и быстро устаревают. Для комплексной оценки привлекаются AI-тренеры — специалисты со строгим отбором по навыкам фактчекинга.
Ключевой вывод: нет универсального метода оценки, необходимы постоянный анализ данных и ручная разметка.
📌 Оригинал
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
PRIME Intellect опубликовала INTELLECT-1 (Instruct + Base), первую языковую модель с 10 млрд. параметров, совместно обученную за 50 суток 30 участниками эксперимента по всему миру.
PRIME Intellect использовала собственную платформу PRIME, разработанную для решения главных проблем децентрализованного обучения: ненадежность сети и динамическое управление вычислительными узлами.
Платформа использовала сеть из 112 GPU H100 на 3 континентах и достигла коэффициента использования вычислений в 96% при оптимальных условиях.
Корпус обучения составлял на 1 трлн. токенов публичных датасетов с процентным соотношением: 55% fineweb-edu, 10% fineweb, 20% Stack V1, 10% dclm-baseline, 5% open-web-math.
INTELLECT-1 достигла точности 37,5% на тесте MMLU и 72,26% на HellaSwag и превзошла несколько других моделей с открытым исходным кодом в WinoGrande с результатом 65,82%.
Хотя эти показатели немного отстают от современных популярных моделей, результаты эксперимента - важнейший шаг к демократизации разработки ИИ и предотвращению консолидации возможностей ИИ в рамках нескольких организаций.
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
torch.set_default_device("cuda")
model = AutoModelForCausalLM.from_pretrained("PrimeIntellect/INTELLECT-1")
tokenizer = AutoTokenizer.from_pretrained("PrimeIntellect/INTELLECT-1")
input_text = "%prompt%"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
output_ids = model.generate(input_ids, max_length=50, num_return_sequences=1)
output_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)
print(output_text)
@ai_machinelearning_big_data
#AI #ML #LLM #Decentralizated
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#deeplearning #machinelearning
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
🎥 HunyuanVideo: Фреймворк для генерации видео 🔥 Jupyter Notebook
🌐page: https://aivideo.hunyuan.tencent.com
🧬code: https://github.com/Tencent/HunyuanVideo
💡jupyter: https://github.com/camenduru/hunyuan-video-jupyter https://x.com/camenduru/status/1863853010251571492/video/1
@machinelearning_interview
🌐page: https://aivideo.hunyuan.tencent.com
🧬code: https://github.com/Tencent/HunyuanVideo
💡jupyter: https://github.com/camenduru/hunyuan-video-jupyter https://x.com/camenduru/status/1863853010251571492/video/1
@machinelearning_interview