Градиент обреченный
8.1K subscribers
852 photos
21 videos
8 files
473 links
Download Telegram
Сходил сдал следующий экзамен на знание китайского (HSK2, тоже не сложный). Проходило все не в МГЛУ, как в прошлый раз, а в отеле напротив парка Хуамин на Ботаническом саду (сам парк, кстати, очень красивый).

Оказалось, что там сегодня проходит выставка об образовании и работе в Китае. Есть около десяти стендов различных университетов, где их представители рассказывают про условия обучения.

Кому интересно, заходите, вход свободный.
🔥36🥰5🎉21👍1
Тестируем GPT-4o
🆒46😁35🔥61
С пониманием новых шуток, по-моему, справляется плюс-минус также, в целом нравится.

Заявлена мультиязычность, пишите что перевести и на какой язык, проверим как она переводит.
🔥14👍521
🔺 SD 3

Пришло письмо, что 12 июня на HF выложат веса Stable Diffusion 3.

Пока что c моделью можно поиграться на сайте в Stable Assistant с триалом на три дня. Потыкал в нее, по качеству явно получше предыдущей модели, умеет рисовать надписи на английском. Ждём.
👍20🔥19🎉5😁1
🔺 DPF

Тут коллеги решили выложить в открытый доступ инструмент, которым обрабатывают данные — Data Processing Framework.

Основной упор на картинки, видео и оптимизации по их обработке (коллеги обучают Kandinsky), для текстов тоже есть фильтры типа детекции языка и автоперевода.

Задачки довольно частые при работе с данными, поэтому рекомендую к использованию (если чего-то не хватает, то оставляйте Issue на GitHub). Собрал простой колаб с примером определения языка. В документации есть много других рабочих примеров.

👉 GitHub | Хабр | Colab
👍216🔥4👏1
Собрал датасетик метаданных из книжек либрусека (~500k). Может, будет полезно.

👉 HF
👍35💯4🔥3
Мы строили, строили и наконец-то построили :) Книга «Охота на электроовец: большая книга искусственного интеллекта» вышла из печати и доступна к заказу. Полные электронные версии книги (epub, docx, pdf) можно скачать с сайта бесплатно: https://markoff.science#book

«Мифы и заблуждения об искусственном интеллекте, страхи, насущные проблемы, перспективные направления исследований — обо всём этом вы узнаете из «Большой книги искусственного интеллекта»
🔥41👍7👏543
🔺 Nemotron. GPT-4 у вас дома.

NVIDIA выложила в открытый доступ свою большую модель Nemotron-4 340B.

🔸 Претрейн шел на 8T токенах, затем изменили распределение данных и обучили еще на 1T токенах (пишут, что на этом этапе добавили вопросно-ответные данные и уменьшили LR). Обучали на 6144 H100.

🔸 На этапе SFT (дообучение на инструкциях), было немного размеченных людьми данных (около 20k), а 98% инструкций были синтетическими.

🔸 Данные. 70% — английский, 15% — код, 15% — мультиязычные данные (моно- и параллельные корпуса). В мультиязычной части было 53 языка, русский там в топе, 3.88%. Больше про данные есть в отчете другой модели (данные были те же).

🔸 Провели SBS тест с GPT-4-1106-preview, получили выигрыш (win : tie : loss = 28.19% : 46.57% : 25.24%).

🔸 Чтобы запустить модель у вас дома, вам понадобятся две стойки по 8 H100 или A100 (80Gb).

👉 Если стоек не нашлось, то пообщаться с моделью можно на чатбот-арене (вкладка direct chat).

👉 Тех. отчет | HF
🔥24😁10🎉5👍4😱2
🔺 «Маленький принц» на хакасском

Благодаря Василию Адешкину @adskat, удалось собрать средства на перевод книги на хакасский язык и, собственно, перевести её (перевел Илья Топоев). Большое им спасибо!

📚 Текст выровнял и добавил к другим редакциям, так что можно читать книгу в любых языковых комбинациях.

👉 Книжка, чат
27🔥16👍4🍾1🤗1
🔺 110

🔸 Это не только средняя температура на Юпитере, но и количество языков, которые на днях добавили в Google Translate (список).

🔸 После того, как Meta выпустила модель NNLB для перевода на 200 языков, Google объявил об инициативе по поддержке 1000 языков и приблизился к обещанному уже на четверть.

🔸 При переводе также используется языковая модель (PaLM 2), а среди новых языков есть много распространенных в России (абхазский, аварский, башкирский, бурятский, чеченский, чувашский, крымско-татарский, коми, марийский, осетинский, тувинский, удмуртский, якутский).

🔸 Модель может иногда ошибается в грамматике. Подобный эффект заметен, когда вы общаетесь с языковыми моделями на русском языке, а при обучении таких данных было недостаточно.

🔸 Вообще, подобный шаг — это отличная поддержка для малоресурсных языков, перевод можно встраивать по API в приложения или использовать для того же выравнивания параллельных книг.

🔸 Чем ответит Яндекс?
🔥36👍16💯5😁31