Big data world
2.35K subscribers
412 photos
64 videos
18 files
1.25K links
Интересные статьи Data Science : Big Data : Machine Learning : Deep Learning

По вопросам сотрудничества- @Daily_admin_info

По иным темам @un_ixtime
Download Telegram
Новая модель искусственного интеллекта Replit теперь доступна на Hugging Face

"Миссия в Replit — дать возможность следующему миллиарду создателей программного обеспечения. Вчера мы усилили наши обязательства, объявив, что Replit AI теперь бесплатен для всех пользователей . За последний год мы стали свидетелями преобразующей силы совместной разработки программного обеспечения с возможностями искусственного интеллекта. Мы считаем, что искусственный интеллект станет частью набора инструментов каждого разработчика программного обеспечения, и мы рады бесплатно предоставить Replit AI нашему более чем 25-миллионному сообществу разработчиков." https://blog.replit.com/replit-code-v1_5
Привет! Это команда МТС и мы запустили бесплатный курс для тех, кто хочет стать сильным ML-разработчиком

Что будет: 10 месяцев онлайн обучения от экспертов Big Data МТС с возможностью трудоустройства в компанию

Что в программе: Python, математика, основы машинного обучения, ML Ops, ML System design и все, что необходимо для работы в Data Science

Ждем на обучении тех, кто хочет развиваться и в анализе данных, и в ML, и в IT одновременно.

Оставляй заявку и решай вступительное испытание. Лучших пригласим к обучению

Подробности по ссылке, ждем тебя!

Реклама. ПАО "МТС". ИНН 7740000076. erid: LjN8K21rT
LLaMA 2, RWKV, Santacoder и другие LLM на iOS

Однажды я решил изучить язык Swift и разработать свое первое приложение для iOS. Для этого я решил создать реальный проект, который заключался в оптимизации нашумевшего LLaMA.cpp под iOS. Я поставил перед собой задачу обеспечить запуск 3B и 7B моделей на iPhone 12 Pro с приемлемой скоростью. Под «приемлемой» скоростью я имею в виду такую, чтобы пользователь не успевал заскучать, читая предсказанный текст, пока генерируется новая часть. Что из этого получилось (и какие трудности были при реализации) читайте в статье. https://habr.com/ru/articles/764598/
👍2💩1
This media is not supported in your browser
VIEW IN TELEGRAM
Генеративные модели, обученные на интернет-данных, произвели революцию в способах создания текста, изображений и видеоконтента. Возможно, следующей вехой в развитии генеративных моделей станет моделирование реалистичного опыта в ответ на действия, выполняемые людьми, роботами и другими типами интерактивных агентов.

Interactive website: https://universal-simulator.github.io
Paper: https://arxiv.org/abs/2310.06114
Введение в современную статистику (2-е изд.)

https://openintro-ims2.netlify.app/
Как «воспитать ламу» и ускорить ML-эксперименты.

Часто проведение ML-экспериментов сводится к долгому поиску и загрузке нужных датасетов и моделей, скрупулезной настройке гиперпараметров с целью проверки гипотез. Но что делать, когда времени мало, а за ночь нужно зафайнтюнить ламу? Давайте это и узнаем.

Статья написана по мотивам доклада Ефима Головина, MLOps-инженера в отделе Data- и ML-продуктов Selectel.

Читать дальше →https://habr.com/ru/companies/selectel/articles/767076
Понимание глубокого обучения

https://udlbook.github.io/udlbook/
Kornia — библиотека компьютерного зрения.

Kornia это open source библиотека для решения задач компьютерного зрения. Она использует PyTorch в качестве основного бэкенда и состоит из набора дифференцируемых процедур и модулей. Создатели библиотеки вдохновлялись OpenCV, и поэтому Kornia является его аналогом, но при этом в некоторых моментах превосходит. Главным преимуществом Kornia по сравнению с тем же OpenCV, scikit-image или с Albumentations является возможность обрабатывать изображения батчами, а не по одному изображению и возможность обрабатывать данные на GPU.

Читать далее https://habr.com/ru/articles/765176
Fuyu-8b: мультимодальная архитектура для агентов ИИ.

https://www.adept.ai/blog/fuyu-8b
Антон Мальцев про удобные NPU, Computer Vision для коботов и восстание неуклюжих машин.

У нас в гостях специалист с 15-летним опытом в Machine Learning который совмещает пару высокоуровневых должностей в разных компаниях — Head of ML в Cherry Labs и CTO в Rembrain. За полтора часа мы обсудили: позабытые ML-фреймворки и перспективы Reinforcement Learning, выяснили, какие платы с NPU лучше подходят для pet-project и зачем норвежцам роборуки.

Читать далее https://habr.com/ru/companies/magnus-tech/articles/768476/
Построение ML модели для оценки текста языкового экзамена.

Путешествуя по просторам Kaggle, я встретила обычный, на первый взгляд, датасет с результатами письменной части языкового экзамена IELTS. Так как недавно я сама активно готовилась к сдаче подобного экзамена, тема меня чрезвычайно заинтересовала и я решила попробовать создать модель, способную предсказывать оценку на основе текста эссе.

Итак, сначала определимся с постановкой задачи. Результаты экзамена оцениваются по шкале от 0.0 до 9.0, с шагом 0.5, поэтому я рассматривала задачу как многоклассовую классификацию.

Читать далее https://habr.com/ru/companies/otus/articles/768594
LoRA — один из наиболее широко используемых и эффективных по параметрам методов точной настройки для обучения пользовательских LLM. В этой статье представлены практические советы для тех, кто заинтересован в ее применении: от экономии памяти с помощью QLoRA до выбора оптимальных настроек LoRA. https://lightning.ai/pages/community/lora-insights
❤‍🔥3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь вы можете запускать популярные LLM HF Space локально.

Для работы не требуется GPU, только обычные процессоры

https://github.com/neuralmagic/examples/tree/main/demos/sparse-mpt-7b-gsm8k
Открыта регистрация на отборочный этап Всероссийского хакатона по биометрии с призовым фондом 1 000 000 рублей!

Тебе предстоит решить интересные задачи, чтобы победить в отборочном туре и принять участие в финале Всероссийского хакатона по биометрии, который пройдет уже 24-25 ноября в Москве.

Кейсы:

• Создание дипфейков для тестирования
• Обнаружение дипфейков
• Некооперативный фронтальный алгоритм защиты от атак предъявления
• Решения для использования новых биометрических модальностей на пользовательских устройствах

🗓 Даты отборочного этапа в ОНЛАЙН-ФОРМАТЕ: 3-5 ноября 2023 года
❗️Даты финала: 24-25 ноября 2023 года
📍 Место: Москва
❗️ Формат: смешанный (отборочный этап в онлайн-формате, а финал на площадке в Москве)
👉 Регистрация на отборочный тур открыта до 29 октября 2023 года: https://tglink.io/136a20ebe22d

Реклама. ООО "АКСЕЛЕРАТОР ВОЗМОЖНОСТЕЙ". ИНН 9704005146. erid: LjN8KXsfC
📝[Перевод] Объясняем простым языком, что такое трансформеры.

Облако предлагает много возможностей для развития ИИ. С помощью облачных вычислений проще масштабировать ML-модели, повышать точность обучения и предоставлять данные удаленно пользователям. Однако масштабное развертывание ML-моделей требует понимания архитектуры нейронных сетей. 

Один из важнейших инструментов машинного обучения — трансформеры. Популярность трансформеров взлетела до небес в связи с появлением больших языковых моделей вроде ChatGPT, GPT-4 и LLama. Эти модели созданы на основе трансформерной архитектуры и демонстрируют отличную производительность в понимании и синтезе естественных языков. 

Хотя в сети уже есть хорошие статьи, в которых разобран принцип действия трансформеров, большинство материалов изобилует запутанными терминами. Мы подготовили перевод статьи, в которой без кода и сложной математики объясняют современную трансформерную архитектуру.

Читать далее https://habr.com/ru/companies/cloud_mts/articles/770202

📝6 обязательных навыков в области науки о данных — полное руководство

Читать далее https://towardsdatascience.com/dont-apply-to-tech-without-mastering-these-6-must-have-data-science-skills-a-spotify-data-8b1b7b8cc0ba
3
Система оценки больших языковых моделей (GitHub Repo) В данном исследовании представлен "JudgeLM" - новый метод эффективной оценки больших языковых моделей в универсальных ситуациях. Авторы разработали обширный набор данных и систему бенчмаркинга. подробнее→ https://github.com/baaivision/judgelm

Эмулируйте обучение большой модели, просто обучая маленькую (28 минут чтения)

Программа Emulator Fine Tuning (EFT), разработанная группой оптимизации прямых предпочтений, изучает, что произойдет, если выполнить тонкую настройку небольшой модели, а затем спроецировать эту настройку на большую модель. https://arxiv.org/abs/2310.12962
Insanely Fast Whisper (GitHub Repo)

Расшифровка 300 минут аудиозаписей менее чем за 10 минут с помощью OpenAI's Whisper Large v2. подробнее→ https://github.com/Vaibhavs10/insanely-fast-whisper