304K subscribers
4.02K photos
712 videos
17 files
4.6K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🔥 SHMT — гетерогенная многопоточность для ускорения компьютеров

Инженеры из Калифорнийского университета тестируют способ, который может значительно ускорить работу компьютерных систем без необходимости улучшать оборудование. Проект поможет также снизить энергопотребление.

Метод исследования основан на процессе одновременной и гетерогенной многопоточности (SHMT). Он задействует различные типы процессоров, содержащиеся в современных компьютерах: графический, центральный и тензорный (для работы технологий ИИ).

Концепция SHMT используется, в частности, во время планирования — процесса, в котором система выбирает порядок и расположение задач, решая, какие операции должны выполняться на процессорах каждого типа.

Тестовая установка включала ЦП ARM Cortex-A57, GPU Nvidia и тензорный процессор Google Edge. Благодаря одновременной и гетерогенной многопоточности выполнение расчёта примера кода прошло в 1,95 раза быстрее, а потребление энергии сократилось на 51%.

«Укоренившиеся модели программирования ориентированы на использование только наиболее эффективных процессоров для каждой области кода, недостаточно используя вычислительную мощность гетерогенных компьютеров», — отметили исследователи в своей статье.

Учёные признали, что им предстоит преодолеть серьёзные проблемы, связанные с разделением вычислительных задач, которые будут выполняться разными типами процессоров, а затем объединением всего обратно без какого-либо замедления. По их оценкам, технологию SHMT не получится повсеместно внедрить в ближайшем будущем.

📎 Читать подробнее

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1511🔥6🤩3🍌3
⭐️ Awesome Quant: Финансовая математика

Лучшие пакеты r, библиотеки python, пакеты julia, инструменты прогнозирования, программное обеспечение для работы с биржами, финансовые инструменты, r, python, julia, rust, java и многое другое.

Большой кураторский список безумно полезных библиотек, пакетов и ресурсов для Квантов.

https://wilsonfreitas.github.io/awesome-quant/

📌 А здесь репозиторий для изучения Python - ссылка

#курсыPython

@ai_machinelearning_big_data
👍158🔥4🍌2
🔥 Генеративные нейросети Яндекса попали в первый международный рейтинг Global Generative AI Landscape 2024 от AIPort

В списке самых перспективных ИИ-разработок оказались текстовая YandexGPT и мультимодальная YandexART 🎉

Рейтинг охватил все ключевые категории генеративных нейросетей: текстовые, картиночные, видео, аудио, мультимодальные, чат-боты, игровые и другие. Его опубликовало сообщество дата-сайентистов, ML-экспертов и энтузиастов в сфере ИИ.

Помимо этого, Яндекс стал одной из 11 компаний со всего мира, разрабатывающих более одного типа GenAI-моделей наряду со Open AI, Microsoft и Google.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍47🔥10🎉7🥴75🍌2💊1
🎮 Google Deepmind представили SIMA

Это первый универсальный агент с искусственным интеллектом, который выполняет инструкции на естественном языке в широком спектре 3D-виртуальных сред и видеоигр.

Агент может выполнять задачи, аналогичные человеческим, и превосходит агентов, обученного всего в одной среде.

Его цель заключается не в достижении высоких результатов в играх, а скорее в умении взаимодействовать с окружающим миром.

На данный момент SIMA обучается на девяти различных видеоиграх, включая No Man's Sky от студии Hello Games и Teardown от Tuxedo Labs. Кроме того, на скриншотах можно увидеть такие игры, как Valheim, Hydroneer, Wobbly Life, Satisfactory и Goat Simulator 3.

Нейросеть обучается широкому спектру навыков, начиная от простой навигации и использования меню до добычи ресурсов, полета на космическом корабле и создания предметов.

Ученые также создали четыре исследовательские среды на движке Unity, где агентам предстоит строить скульптуры из строительных блоков, это поможет проверить их способность манипулировать объектами и интуитивное понимание физического мира.

Результаты SIMA демонстрируют потенциал для разработки новой волны универсальных ИИ-агентов, управляемых командами на естественном языке.

Post
Technical report

@ai_machinelearning_big_data
👍28🔥116🥰2🍌1
Возможно, совсем скоро мы увидим GPT-4.5 Turbo от OpenAI

Согласно новым данным из «утечки» от OpenAI, одним из существенных обновлений в GPT-4.5 Turbo является окно длины контекста в 256k токенов, что вдвое превышает текущие 128k GPT-4 Turbo. Этот шаг, похоже, является ответом OpenAI на конкурентов, запускающих модели со все более большими контекстными окнами, включая Google Gemini. Вероятно, что новая модель GPT изменит ситуацию для OpenAI или даже продвинет её впереди чат-бота Google.

OpenAI пока официально не раскрыла информацию об утечке, поэтому статус GPT-4.5 Turbo и дата выпуска в июне 2024 года окутаны тайной.

Немного предыстории
12 марта 2024 года исследователи обнаружили в кэше Bing, что OpenAI готовится представить нейросеть GPT-4.5 Turbo. Но ссылка на эту страницу на сайте OpenAI выдаёт ошибку 404. Также из поисковой выдачи пропало упоминание о новом чат-боте.

Ожидается, что с помощью чат‑бота GPT-4.5 OpenAI стремится устранить некоторые ограничения и проблемы, с которыми столкнулись его предшественники. Это включает в себя уменьшение предвзятости в сгенерированном тексте, улучшение понимания моделью неоднозначных запросов и значительное улучшение её способности решать задачи, специфичные для определённой предметной области.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍6🥰3🍌3👏1
🔥 Российский AI GigaChat занял 4-е место среди самых передовых моделей искусственного интеллекта, обогнав GPT-3.5 и гугловский Gemini по результатам бенчмарка AI Benchmarking Guide 2024. Также GigaChat показал лучшие результаты по запросам на русском языке.

Исследование проводилось методом side-by-side. Для определения потенциала модели эксперты использовали комбинацию двух факторов: оценку производительности модели на ее «родном» языке и наивысшую оценку реакции модели на любом другом языке. Кроме того проводились слепые тесты по задачам: перевод, творческое написание текстов, генерация кода и анализ данных.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥55🤣38👍167💊6😁4🤪4🤔3🍌1
🖥 pyvene: A Library for Understanding and Improving PyTorch Models via Interventions

Стэнфордская библиотека NLP для понимания и улучшения моделей на основе PyTorch.

Воздействие на внутренние состояния модели являются важной операцией во многих областях работы с ИИ, включая редактирование модели, управление, ее надежность и интерпретируемость.

Для облегчения таких задач исследователи Стэнфорда создали библиотеку Python с открытым исходным кодом, которая поддерживает сложные схемы взаимодействия с моделями в интуитивно понятном формате.

pip install pyvene

Например, вы можете использовать любую модель hf:



import torch
import pyvene as pv
from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "meta-llama/Llama-2-7b-hf" # your HF model name.
model = AutoModelForCausalLM.from_pretrained(
model_name, torch_dtype=torch.bfloat16, device_map="cuda")
tokenizer = AutoTokenizer.from_pretrained(model_name)

def zeroout_intervention_fn(b, s):
b[:,3] = 0. # 3rd position
return b

pv_model = pv.IntervenableModel({
"component": "model.layers[15].mlp.output", # string access
"intervention": zeroout_intervention_fn}, model=model)

# run the intervened forward pass
orig_outputs, intervened_outputs = pv_model(
tokenizer("The capital of Spain is", return_tensors="pt").to('cuda'),
output_original_output=True
)
print(intervened_outputs.logits - orig_outputs.logits)


Вернет:



tensor([[[ 0.0000, 0.0000, 0.0000, ..., 0.0000, 0.0000, 0.
[ 0.0000, 0.0000, 0.0000, ..., 0.0000, 0.0000, 0.0000],
[ 0.0000, 0.0000, 0.0000, ..., 0.0000, 0.0000, 0.0000],
[ 0.4375, 1.0625, 0.3750, ..., -0.1562, 0.4844, 0.2969],
[ 0.0938, 0.1250, 0.1875, ..., 0.2031, 0.0625, 0.2188],
[ 0.0000, -0.0625, -0.0312, ..., 0.0000, 0.0000, -0.0156]]],
device='cuda:0')


Github
Paper
Colab

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍33🔥104🥴3🍌1
Могут ли нейросети понимать человеческие эмоции?

Да, могут!

В Yandex Cloud разработали нейросеть-эмпата на базе технологии распознавания речи Yandex SpeechKit, которая поможет бизнесу понимать эмоции клиентов по голосу. Новая ML-модель уже может определить негатив, неформальные высказывания и нецензурную лексику.

Расшифровка и анализ эмоций происходят сразу во время разговора. Это позволит лучше адаптировать коммуникации компании под каждого клиента и оперативно реагировать на инциденты в диалоге, если что-то пошло не так.

Вскоре нейросеть-эмпат будет работать в связке с YandexGPT в сервисе речевой аналитики SpeechSense — после этого она сможет понимать неуверенность, сарказм и другие сложные эмоции.

➡️ Узнайте обо всех возможностях нейросети по ссылке

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23👏53🤔3🍌1
📌Microsoft рассказала, какие у Google преимущества в сфере генеративного ИИ

Microsoft заявила, что доступ к огромным объёмам данных и наличие оптимизированных под искусственный интеллект чипов дают Google преимущество в сфере генеративных нейросетей. Таким образом софтверный гигант попытался подчеркнуть наличие конкуренции в сегменте генеративных нейросетей. В январе этого года Еврокомиссия, основной отраслевой регулятор Евросоюза, начала проверку с целью выявления нарушений антимонопольного законодательства в этой сфере.

Сегмент генеративных нейросетей развивается быстрыми темпами. Появление чат-ботов на основе искусственного интеллекта, таких как ChatGPT от OpenAI и Gemini от Google, вызывает опасения по поводу того, что подобные технологии могут использоваться для создания фейковых новостей и распространения дезинформации. На этом фоне Еврокомиссия начала изучать сегмент, чтобы убедиться в том, что все игроки находятся в одинаковых условиях.

«Сегодня только одна компания — Google — вертикально интегрирована таким образом, что обеспечивает ей силу и независимость на всех уровнях ИИ — от чипов до процветающего магазина мобильных приложений. Все остальные вынуждены полагаться на партнёрские отношения, чтобы внедрять инновации и конкурировать», — говорится в докладе Microsoft, который был направлен в Еврокомиссию.

В Microsoft считают, что способность Google самообеспечивать себя оптимизированными под ИИ чипами даст ей конкурентные преимущества на ближайшие несколько лет. В это же время огромные массивы данных из поискового индекса Google и YouTube позволят компании обучать свою языковую модель Gemini. «YouTube предоставляет беспрецедентный набор видеоконтента: на платформе размещено около 14 млрд видеороликов. У Google есть доступ к этому контенту, а у других разработчиков в сфере ИИ — нет», — заявила Microsoft.

📎 Читать подробнее

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15😁42🔥2🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Clarity-Upscaler: Open-Source 🔥 Open-Source 🔥

Clarity AI - это новая нейросеть для апскейла, которая может значительно улучшать разрешение изображений и добавлять детали к ним.

Вы можете самостоятельно контролировать результаты, задавая нужное описание при запуске генератора.

code: https://github.com/philz1337x/clarity-upscaler
page: https://clarityai.cc

@ai_machinelearning_big_data
👍25🔥14🤷‍♂33😁2🥰1🍌1
🌟 Ускорение вычислений Machine Learning

Недавно разработчики из AMD опубликовали на GitHub исходные тексты кода драйвера для карт с движком на базе архитектуры XDNA. Проект предоставляет средства для ускорения вычислений, связанные с машинным обучением и обработкой сигналов (NPU, Neural Processing Unit).

Решения NPU на базе архитектуры XDNA поставляется в сериях 7040 и 8040 процессоров AMD Ryzen, ускорителях AMD Alveo V70 и SoC AMD Versal. Код проекта написан на языках С и С++, и открыт под лицензией GPLv2. Для работы драйвера требуется ядро Linux 6.7 с поддержкой IOMMU SVA (Shared Virtual Addressing). Программное обеспечение Xilinx XRT также необходимо построить для работы с этим драйвером ядра.

Опубликованный AMD исходный код включается в себя драйвер для ядра Linux (amdxdna.ko) и runtime-библиотеку (плагин xrt_plugin*-amdxdna) для использования интерфейса XRT (Xilinx Runtime Library), позволяющего обращаться из приложений к обработчикам (kernel), выполняемым на стороне аппаратного ускорителя. XRT позволяет задействовать NPU AMD в приложениях на обычных языках программирования.

Проект предоставляет различные уровни абстракции, от низкоуровневых API для C/C++ до высокоуровневых привязок для Python и компонентов для интеграции с TensorFlow, PyTorch и Caffe.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍215🔥4🍌1
🔥Grok-1 LLM от Илона Маска.

Grok-1 представляет собой смесь экспертов размером 314B обученную с нуля xAI.

Лицензия: Apache 2.0

Веса Grok-1 доступны на Brazzer

Model: https://dagshub.com/xai/grok-1
Page: https://x.ai/blog/grok-os
Code: https://github.com/xai-org/grok-1
Hugging face:https://huggingface.co/xai-org/grok-1

@ai_machinelearning_big_data
26🔥15👍3🥰2🤔2🍌2
🔥 GPT-4 Turbo в Copilot

Microsoft объявила о развёртывании большой языковой модели GPT-4 Turbo в бесплатной версии Copilot. Решение позволит повысить производительность помощника на базе искусственного интеллекта.

Ранее доступ к GPT-4 Turbo имели только пользователи подписки Copilot Pro, стоимость которой составляет $20 в месяц. Генеральный директор по рекламе и веб-сервисам Microsoft Михаил Парахин поделился, что развёртыванию более производительной ИИ-модели для бесплатного Copilot предшествовало «немало работы».

Дочерняя компания Microsoft, OpenAI, представила GPT-4 Turbo в ноябре прошлого года. Базу модели обновили до апреля 2023 года, а для запросов теперь можно вводить промты до 128 тыс. токенов, что равно примерно 300 страницам. В декабре Microsoft добавила GPT-4 Turbo в Copilot Pro.

По словам Парахина, обладатели Copilot Pro, которые предпочитают использовать более старую GPT-4, могут воспользоваться для этого переключателем.

Ранее Microsoft объявила, что подписчики Copilot Pro получат доступ к конструктору пользовательских ИИ-моделей Copilot GPT Builder. Решение позволяет создавать чат-ботов без каких-либо знаний программирования. Также пользователи Copilot Pro смогут делиться своими моделями даже с теми, у кого нет подписки. Такие чат-боты можно запускать как на мобильных устройствах, так и на ПК.

В рамках последней презентации Samsung показала новые возможности Copilot в Windows 11 до официального анонса со стороны Microsoft. Изображения на сайте южнокорейской компании подтверждают слухи о реализации идеи использования естественного языка при общении с ИИ для различных задач. Например, это включает напоминания о сказанном другими пользователями в чате, возможность скопировать ссылку или другие данные из сообщения пользователя в чате, отвечать на определённые слова в чате определёнными сообщениями и другие опции.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍167🔥4🤣1🍌1😡1
This media is not supported in your browser
VIEW IN TELEGRAM
🔉 MeloTTS is a high-quality multi-lingual text-to-speech library

Mellott одна из лучших библиотек преобразования текста в речь с открытым исходным кодом, поддерживающая несколько языков.

Github
Project
Docs

@ai_machinelearning_big_data
👍17🔥3🍌32🗿2🤩1
⭐️ На Хабре вышла статья про введение в современную квантизацию

ML-разработчик Яндекса рассказал о квантизации нейросетевых моделей: зачем она нужна и какие подходы к ней существуют. Квантизация — это переход от типа данных с большим числом бит, например, float32 к типу с меньшим числом, такому как int8. Автор рассказал о своем опыте и рассмотрел ключевые идеи квантизации нейросетевых моделей в перспективе LLM.

@ai_machinelearning_big_data
👍28🔥43😁1🍌1