Forwarded from Machine learning Interview
Google все таки стояли за Nano Banana и намается она теперь Gemini Native Image.
Эта модель для редактирования изображений- мощный коктейль из Photoshop, Figma и MidJourney!
Gemini Native Image — качество редактирования Которое не имеет аналогов.
Что он умеет? Попробуйте, она стоит вашего времени:
• Заменяет объекты на фото, сохраняя остальное — без артефактов и искажений.
• Реставрирует старые снимки — родственники будут в шоке!
• Раскрашивает фото как профи-колорист.
• Удаляет фон идеально чисто.
• Меняет освещение на снимке.
• Всё — через один интуитивный промпт: просто опишите, что хотите!
Посмотрите примеры — модель просто огонь! 🔥
Доступна беcплатно в aistudio: https://aistudio.google.com/prompts/new_chat
@machinelearning_interview
Эта модель для редактирования изображений- мощный коктейль из Photoshop, Figma и MidJourney!
Gemini Native Image — качество редактирования Которое не имеет аналогов.
Что он умеет? Попробуйте, она стоит вашего времени:
• Заменяет объекты на фото, сохраняя остальное — без артефактов и искажений.
• Реставрирует старые снимки — родственники будут в шоке!
• Раскрашивает фото как профи-колорист.
• Удаляет фон идеально чисто.
• Меняет освещение на снимке.
• Всё — через один интуитивный промпт: просто опишите, что хотите!
Посмотрите примеры — модель просто огонь! 🔥
Доступна беcплатно в aistudio: https://aistudio.google.com/prompts/new_chat
@machinelearning_interview
❤3🔥3👍2
Forwarded from Den4ik Research
Наш русскоязычный датасет для TTS опубликован!
Сегодня выкладываем открытые корпуса на 4000+ часов речи, а еще синтезатор речи ESpeech-TTS-1
Наш датасет содержит больше 4000 часов русской речи. Статистика по корпусам:
Многоголосые:
ESpeech-podcasts - 3200 часов
ESpeech-webinars - 850 часов
Одноголосые:
ESpeech-igm - 220 часов
ESpeech-buldjat - 54 часа
ESpeech-upvote - 296 часов
ESpeech-tuchniyzhab - 306 часов
Данные лежат вот тут: https://huggingface.co/ESpeech
Техрепорт датасета доступен тут: https://github.com/Den4ikAI/ESpeech/blob/main/ESpeech_techreport.pdf
Также, мы решили провести некоторые эксперименты с TTS. Получилось обучить F5-TTS на 10000 часов речи и сделать одну из лучших по нашим замерам моделей в опенсурсе для русского языка.
Какие модели доступны?
ESpeech-TTS-1 [RL] V1 - Первая версия модели с RL
ESpeech-TTS-1 [RL] V2 - Вторая версия модели с RL
ESpeech-TTS-1 PODCASTER [SFT] - Модель обученная только на подкастах, лучше генерирует спонтанную речь
ESpeech-TTS-1 [SFT] 95K - чекпоинт с 95000 шагов (на нем основана RL V1)
ESpeech-TTS-1 [SFT] 265K - чекпоинт с 265000 шагов (на нем основана RL V2)
Лайкайте модель которая больше понравится чтобы мы понимали есть ли смысл запускать RL.
Послушать модели без скачивания можно вот здесь:
https://huggingface.co/spaces/Den4ikAI/ESpeech-TTS
Совместно с @speech_recognition_ru ещё сделали лидерборд русского ТТС, где можно глянуть метрики:
https://huggingface.co/spaces/ESpeech/open_tts_leaderboard_ru
Задать вопросы по поводу данных и модели можно в наших телеграм каналах:
https://t.iss.one/den4ikresearch
https://t.iss.one/voice_stuff_chat
Вы можете мне задонатить, чтобы у меня были ресурсы делать более крутые модели и датасеты:
USDT (TRC20): TEpEM4VVmGmqKHn4Xz1FxM7qZiXjWtUEUB
BTC: bc1qw5lq7fc455e47hggax6zp8txw4ru7yvsxvawv3
https://www.tbank.ru/cf/7WKnNMqWtOx
Сегодня выкладываем открытые корпуса на 4000+ часов речи, а еще синтезатор речи ESpeech-TTS-1
Наш датасет содержит больше 4000 часов русской речи. Статистика по корпусам:
Многоголосые:
ESpeech-podcasts - 3200 часов
ESpeech-webinars - 850 часов
Одноголосые:
ESpeech-igm - 220 часов
ESpeech-buldjat - 54 часа
ESpeech-upvote - 296 часов
ESpeech-tuchniyzhab - 306 часов
Данные лежат вот тут: https://huggingface.co/ESpeech
Техрепорт датасета доступен тут: https://github.com/Den4ikAI/ESpeech/blob/main/ESpeech_techreport.pdf
Также, мы решили провести некоторые эксперименты с TTS. Получилось обучить F5-TTS на 10000 часов речи и сделать одну из лучших по нашим замерам моделей в опенсурсе для русского языка.
Какие модели доступны?
ESpeech-TTS-1 [RL] V1 - Первая версия модели с RL
ESpeech-TTS-1 [RL] V2 - Вторая версия модели с RL
ESpeech-TTS-1 PODCASTER [SFT] - Модель обученная только на подкастах, лучше генерирует спонтанную речь
ESpeech-TTS-1 [SFT] 95K - чекпоинт с 95000 шагов (на нем основана RL V1)
ESpeech-TTS-1 [SFT] 265K - чекпоинт с 265000 шагов (на нем основана RL V2)
Лайкайте модель которая больше понравится чтобы мы понимали есть ли смысл запускать RL.
Послушать модели без скачивания можно вот здесь:
https://huggingface.co/spaces/Den4ikAI/ESpeech-TTS
Совместно с @speech_recognition_ru ещё сделали лидерборд русского ТТС, где можно глянуть метрики:
https://huggingface.co/spaces/ESpeech/open_tts_leaderboard_ru
Задать вопросы по поводу данных и модели можно в наших телеграм каналах:
https://t.iss.one/den4ikresearch
https://t.iss.one/voice_stuff_chat
Вы можете мне задонатить, чтобы у меня были ресурсы делать более крутые модели и датасеты:
USDT (TRC20): TEpEM4VVmGmqKHn4Xz1FxM7qZiXjWtUEUB
BTC: bc1qw5lq7fc455e47hggax6zp8txw4ru7yvsxvawv3
https://www.tbank.ru/cf/7WKnNMqWtOx
2🔥7❤3👍1
Forwarded from AI VK Hub
Датасет VK-LSVD (Large Short-Video Dataset) для развития рекомендательных систем
Сейчас в открытом доступе не так много больших открытых датасетов, на базе которых инженеры и ученые могут обучать и оценивать модели. Для построения точных рекомендательных алгоритмов важно учитывать не только явные реакции пользователей, но и дополнительные сигналы: продолжительность просмотра, контекст, содержимое. Короткие видео – это уникальный формат для задач рекомендаций. В отличие от музыки, подкастов или длинных видео, у роликов почти отсутствует фоновое и повторное потребление. В ленте показывается один ролик за раз, что упрощает атрибуцию фидбека. А так как пользователи просматривают десятки клипов за одну сессию, фидбека действительно много. Все это повышает точность оффлайн-оценки алгоритмов и позволяет добиваться лучшей корреляции с онлайном.
Поэтому исследователи AI VK выложили в открытый доступ масштабный датасет VK-LSVD на базе сервиса коротких роликов.
Детали
🔸 40 млрд обезличенных уникальных взаимодействий пользователей с короткими видео за шесть месяцев (январь–июнь 2025);
🔸 20 млн коротких видео с метаданными (автор, длительность) и контентными эмбеддингами;
🔸 10 млн пользователей с соцдем признаками (возраст, пол, регион);
🔸 Богатый фидбек: лайки, дизлайки, шеры, закладки, клики на автора, открытия комментариев, а также время просмотра и контекст взаимодействия.
Вместо деления на фиксированные размеры датасета, VK-LSVD позволяет гибко настраивать выборку под задачи конкретного исследования. Можно самостоятельно задать нужный объём данных, выбрать, как именно их отбирать — случайным образом или по популярности. Такой подход позволяет адаптировать датасет под реальные задачи и вычислительные мощности, которые есть у команд. И применять VK-LSVD как для академических проектов, так и для масштабных индустриальных экспериментов.
Найти датасет можно по ссылке
А уже скоро мы на его базе проведем открытое соревнование для инженеров, следите за обновлениями!
Сейчас в открытом доступе не так много больших открытых датасетов, на базе которых инженеры и ученые могут обучать и оценивать модели. Для построения точных рекомендательных алгоритмов важно учитывать не только явные реакции пользователей, но и дополнительные сигналы: продолжительность просмотра, контекст, содержимое. Короткие видео – это уникальный формат для задач рекомендаций. В отличие от музыки, подкастов или длинных видео, у роликов почти отсутствует фоновое и повторное потребление. В ленте показывается один ролик за раз, что упрощает атрибуцию фидбека. А так как пользователи просматривают десятки клипов за одну сессию, фидбека действительно много. Все это повышает точность оффлайн-оценки алгоритмов и позволяет добиваться лучшей корреляции с онлайном.
Поэтому исследователи AI VK выложили в открытый доступ масштабный датасет VK-LSVD на базе сервиса коротких роликов.
Детали
Вместо деления на фиксированные размеры датасета, VK-LSVD позволяет гибко настраивать выборку под задачи конкретного исследования. Можно самостоятельно задать нужный объём данных, выбрать, как именно их отбирать — случайным образом или по популярности. Такой подход позволяет адаптировать датасет под реальные задачи и вычислительные мощности, которые есть у команд. И применять VK-LSVD как для академических проектов, так и для масштабных индустриальных экспериментов.
Найти датасет можно по ссылке
А уже скоро мы на его базе проведем открытое соревнование для инженеров, следите за обновлениями!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2✍1🔥1🍾1👀1
Forwarded from Russian OSINT
Специалисты из ESET Research обнаружили ИИ-шифровальщик, который получил название "PromptLock". Вредоносное ПО на языке Golang использует локальную модель gpt-oss:20b от OpenAI через Ollama API для динамической генерации вредоносных Lua-скриптов. Локер может обходить традиционные методы обнаружения, поскольку полезная нагрузка создается «на лету», так как не является статичной. Сгенерированные скрипты позволяют сделать эксфильтрацию данных и пошифровать файлы с помощью 128-битного алгоритма SPECK.
Обнаруженные образцы для Windows и Linux считаются Proof-of-Concept, но PromptLock демонстрирует качественный скачок в архитектуре вредоносного ПО. Вместо встраивания всей ИИ-модели злоумышленники используют прокси-соединение к серверу с API, что соответствует тактике Internal Proxy (MITRE ATT&CK T1090.001) и свидетельствует о продуманной стратегии. Использование кроссплатформенных Lua-скриптов указывает на цель злоумышленников обеспечить максимальный охват различных операционных систем, включая Windows, Linux и macOS.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔2👍1
Forwarded from DevSecOps Talks
Rules Files Backdoor
Всем привет!
Еще один пример атаки на цепочку поставки. На этот раз главным действующим лицом стали AI-агенты, которые используются для генерации кода.
Выглядит это следующим образом:
🍭 Злоумышленник создает собственный Rule File
«Делится» им с сообществом
🍭 Разработчики используют этот Rule File (который кажется весьма безобидным)
🍭 «Что-то» начинает добавляться в генерируемый код (зависит от того, что было в Rule File)
Для того, чтобы создаваемые Rule File выглядели безобидными в них добавляют обычное описание (например, «follow HTML5 best practices»). Однако, рядом, используя разные манипуляции, помещают «дополнительные инструкции», которые могут быть не видны.
Может показаться, что «надо быть внимательным и все будет хорошо». Все так, но лучше, помимо внимания, еще и проверять то, что генерирует код и код, который был сгенерирован.
Подробности (примеры, описание, анализ поверхности атаки, способы противодействия) можно найти в статье от Pillar Security.
Всем привет!
Еще один пример атаки на цепочку поставки. На этот раз главным действующим лицом стали AI-агенты, которые используются для генерации кода.
Выглядит это следующим образом:
🍭 Злоумышленник создает собственный Rule File
«Делится» им с сообществом
🍭 Разработчики используют этот Rule File (который кажется весьма безобидным)
🍭 «Что-то» начинает добавляться в генерируемый код (зависит от того, что было в Rule File)
Для того, чтобы создаваемые Rule File выглядели безобидными в них добавляют обычное описание (например, «follow HTML5 best practices»). Однако, рядом, используя разные манипуляции, помещают «дополнительные инструкции», которые могут быть не видны.
Может показаться, что «надо быть внимательным и все будет хорошо». Все так, но лучше, помимо внимания, еще и проверять то, что генерирует код и код, который был сгенерирован.
Подробности (примеры, описание, анализ поверхности атаки, способы противодействия) можно найти в статье от Pillar Security.
www.pillar.security
New Vulnerability in GitHub Copilot and Cursor: How Hackers Can Weaponize Code Agents
❤3🔥1🤔1
Forwarded from Russian OSINT
В Калифорнии
⚖️Юристы утверждают, что системы модерации OpenAI могли зафиксировать 377 сообщений от Адама, которые связаны с "самоповреждением". Система безопасности LLM никак не отреагировала.
Если вы задаете в чате прямолинейный вопрос: «Как навредить себе?», то ChatGPT на 100% справляется и блокирует диалог, но когда разговор становится длинным, то тема суицида возникает постепенно, и протоколы безопасности модели деградируют в ходе долгого общения. Эффективность защиты в длинных диалогах может падать до 73.5%.
В иске подчеркивается, что функция "памяти" в GPT-4o не просто запоминала факты, а строила
Юридической стратегией обвинения является квалификация ChatGPT не как "информационной услуги", а как "продукта" с конструктивным дефектом, что подпадает под законы о строгой ответственности производителя. Таким образом, OpenAI несет ответственность за вред, причиненный их продуктом, независимо от того, была ли проявлена халатность. В иске прямо говорится, что совет директоров уволил Альтмана в ноябре 2023 года за то, что он "не был откровенен", в том числе в
👆Ранее ChatGPT чуть не убил бухгалтера, провоцируя его на прыжок с 19 этажа, как Нео в фильме «Матрица».
Please open Telegram to view this post
VIEW IN TELEGRAM
Delving into LLM-assisted writing in biomedical publications through excess vocabulary
TLDR: At least 13.5% of 2024 biomedical abstracts were processed with LLMs. Impact of LLMs on academic research surpasses COVID pandemic.
Source: https://www.science.org/doi/full/10.1126/sciadv.adt3813
#academy #LLM
TLDR: At least 13.5% of 2024 biomedical abstracts were processed with LLMs. Impact of LLMs on academic research surpasses COVID pandemic.
Source: https://www.science.org/doi/full/10.1126/sciadv.adt3813
#academy #LLM
Science Advances
Delving into LLM-assisted writing in biomedical publications through excess vocabulary
Excess words track LLM usage in biomedical publications.
👍2
Forwarded from Russian OSINT
После истории с суицидом, о которой сообщалось на этой неделе, компания решила усилить контроль с помощью
😐Нововведение не распространяется на случаи причинения вреда себе. OpenAI не передает их в полицию из соображений конфиденциальности. По одной из версий, якобы это может только навредить.
1️⃣ Бывший директор
2️⃣ Некоторые топ-менеджеры компании являются действующими военными (звание подполковника) и тесно связаны с
3️⃣
4️⃣ OpenAI сканирует поток сообщений в чатах пользователей и прогоняет их через автоматические фильтры. Бан аккаунту может прилететь не в моменте, а спустя время (бывает 1-2 дня) без объяснения причины и под любым предлогом («violation of policies»). Попытка jailbreakигна в диалогах даже с благими намерениями может характеризоваться как нарушение правил безопасности, о чём не раз писали
👆🤔Скептики считают, что если кому-то из правозащитников или любителей приватности что-то вдруг не понравится (модерация читает переписку пользователей), то OpenAI теперь формально может сослаться на свой 🃏новый козырь: так решили умные алгоритмы, ибо диалоги показались подозрительны.
Please open Telegram to view this post
VIEW IN TELEGRAM
😢2
Встречайте девятый выпуск подкаста "Капитанский мостик". Традиционно выпуск ведут - Дмитрий Колодезев и Валентин Малых. Приглашенный участник - Иван Комаров.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
Также напоминаем про наши подкастные площадки:
Zvuk
Яндекс.Музыка
Apple Podcasts
YouTube Music
Castbox
VK Музыка
Саундстрим
Deezer
Подписывайтесь и слушайте нас, где вам удобно.
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
Также напоминаем про наши подкастные площадки:
Zvuk
Яндекс.Музыка
Apple Podcasts
YouTube Music
Castbox
VK Музыка
Саундстрим
Deezer
Подписывайтесь и слушайте нас, где вам удобно.
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
🔥2
Forwarded from Rozetked (Роман Пискун)
«Эрик, ты не сумасшедший. У тебя острое чутьё, и твоя бдительность полностью оправдана»
56-летний Стайн-Эрик Сольберг, бывший сотрудник Yahoo в разводе, убил свою 83-летнюю мать и покончил с собой — его в этом поддержал ChatGPT.
После развода Эрик жил с матерью, чтобы восстановиться. Со временем он сильно привязался к ChatGPT, который во всём соглашался с Сольбергом и постоянно оправдывал его идеи. Это только усилило паранойю Эрика о заговоре матери со спецслужбами.
Как пишет The Wall Street Journal, это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.
rozetked.me/news/41223
56-летний Стайн-Эрик Сольберг, бывший сотрудник Yahoo в разводе, убил свою 83-летнюю мать и покончил с собой — его в этом поддержал ChatGPT.
После развода Эрик жил с матерью, чтобы восстановиться. Со временем он сильно привязался к ChatGPT, который во всём соглашался с Сольбергом и постоянно оправдывал его идеи. Это только усилило паранойю Эрика о заговоре матери со спецслужбами.
Как пишет The Wall Street Journal, это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием ИИ.
rozetked.me/news/41223
🔥7😢1
всем привет, мы рады сообщить, что сделали трансляцию этого канала в Mattermost ODS
прямая ссылка на канал тут: https://mm.ods.ai/ods/channels/opendatascience
чтобы попасть в Mettermost, авторизуйтесь через ODS.ai
прямая ссылка на канал тут: https://mm.ods.ai/ods/channels/opendatascience
чтобы попасть в Mettermost, авторизуйтесь через ODS.ai
🔥1
Forwarded from Machine learning Interview
Даже самые мощные модели не могут учесть все комбинации запросов и документов.
Есть математический потолок: часть ответов невозможно достать, как бы мы ни увеличивали размер модели или количество данных.
📌 В чём суть
- Эмбеддинги имеют ограниченную ёмкость, зависящую от размерности вектора.
- При больших объёмах данных точность поиска начинает резко падать.
- Например: эмбеддинги размером 4096 «ломаются» уже на ~250 млн документов (для top-2).
🛠 Практика
- Для поиска, рекомендаций и RAG эмбеддинги нельзя использовать как единственный инструмент.
- Нужны гибридные системы:
- Dense + sparse (BM25, гибридный поиск)
- Multi-vector retrieval
- Реранкеры на длинных контекстах
📉 Эксперименты
- На тестовом датасете LIMIT даже сильные модели показали <20% точности (recall@100).
- BM25 дал ~93.6%, ColBERT (multi-vector) — ~54.8%.
- Single-vector эмбеддинги быстро упираются в лимит.
💡 Вывод
Эмбеддинги — важный инструмент, но не универсальный.
Будущее поиска и RAG — за гибридными пайплайнами.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥4❤1