Обучить ИИ «мыслить» как человек: MIT меняет подход к планированию в LLM 🤔
Многие из нас уже привыкли слышать, что современные языковые модели (LLM) умеют «рассуждать». Но на самом деле, когда мы говорим о «разумном мышлении», мы чаще всего имеем в виду сложную генерацию текста, где модель просто вытаскивает информацию из огромной базы данных и подставляет её в ответ. В этой парадигме отсутствует настоящее планирование и глубокая логика. MIT недавно предложили альтернативный подход, который может стать важным шагом на пути к настоящему искусственному мышлению.
Если MIT удастся масштабировать этот подход, то мы сможем увидеть на горизонте искусственный интеллект, который не просто генерирует фразы на основе статистики, а действительно умеет планировать и делать осознанные логические шаги. Однако пока эта методика применялась только к довольно узким задачам, и пока нет ясности, как она будет работать на более сложных и разнообразных проблемах.
Data Science
Многие из нас уже привыкли слышать, что современные языковые модели (LLM) умеют «рассуждать». Но на самом деле, когда мы говорим о «разумном мышлении», мы чаще всего имеем в виду сложную генерацию текста, где модель просто вытаскивает информацию из огромной базы данных и подставляет её в ответ. В этой парадигме отсутствует настоящее планирование и глубокая логика. MIT недавно предложили альтернативный подход, который может стать важным шагом на пути к настоящему искусственному мышлению.
Их идея заключается в том, что планирование в действительности — это не просто генерация текста, а переход из одного состояния в другое. Например, логика рассуждения может быть такой: если мы находимся в состоянии А, то логически можем перейти в состояние Б, но не в В или Г. Для достижения цели нужно учитывать, какие переходы правильные, а какие нет. Это требует гораздо большей точности и осознания контекста, чем просто заполнение пробелов в тексте.
— Символьные цепочки вместо простых токенов
MIT предлагают, вместо того чтобы учить модели генерировать произвольные фразы, обучать их строить символьные цепочки. Это своеобразный способ научить модель планировать, понимая, что является логически верным переходом, а что — нет. Эти символьные цепочки могут быть проверены верификатором, что позволяет моделям улучшать свои выводы по мере получения фидбэка. По сути, это напоминает обучение с подкреплением (RL), где модель получает обратную связь за свои шаги и улучшает свои рассуждения.
— Как это работает на практике
В исследованиях MIT показано, что такой подход значительно улучшает производительность моделей. В их тестах новое планирование добавило +30–60% к точности в решении задач, где традиционные методы рисования цепочек рассуждений через токены не справлялись. Причем, важный момент: для этого не нужна разметка данных — модели могут учиться без явной маркировки, лишь на основе проверок правильности цепочек.
Если MIT удастся масштабировать этот подход, то мы сможем увидеть на горизонте искусственный интеллект, который не просто генерирует фразы на основе статистики, а действительно умеет планировать и делать осознанные логические шаги. Однако пока эта методика применялась только к довольно узким задачам, и пока нет ясности, как она будет работать на более сложных и разнообразных проблемах.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤4🔥2
Tencent учит языковые модели «параллельному мышлению» 🐹
Исследователи из Tencent AI Lab и Университета Мэриленда предложили новый метод, который помогает языковым моделям (LLM) более эффективно масштабироваться в процессе инференса. В отличие от предыдущих подходов, этот метод позволяет моделям развивать несколько направлений рассуждений одновременно, что значительно повышает точность решений при решении сложных задач.
Этот метод может существенно повлиять на развитие бизнес-решений, где важны высококачественные системы рассуждения. Благодаря использованию параллельного мышления можно сделать ИИ более точным и адаптивным при решении комплексных задач в реальном времени.
Data Science
Исследователи из Tencent AI Lab и Университета Мэриленда предложили новый метод, который помогает языковым моделям (LLM) более эффективно масштабироваться в процессе инференса. В отличие от предыдущих подходов, этот метод позволяет моделям развивать несколько направлений рассуждений одновременно, что значительно повышает точность решений при решении сложных задач.
Метод, названный Parallel-R1, использует обучение с подкреплением, чтобы обучить модели параллельному мышлению. Это значит, что система может генерировать несколько независимых логических путей, а затем собрать их воедино для более точных выводов. Такой подход устраняет потребность в большом количестве размеченных данных, что делает его более доступным для практического применения.
Параллельное мышление активно применяется в таких передовых моделях, как Gemini Deep Think от Google, и показало себя как эффективная техника для сложных задач рассуждения. Однако многие существующие методы сталкиваются с проблемой масштабирования или требуют заранее заданных правил, что ограничивает гибкость и применимость. Parallel-R1 решает эти проблемы, позволив моделям развивать множество линий рассуждений и эффективно комбинировать их.
Метод Parallel-R1 прошел через несколько этапов обучения. Сначала модель обучалась на простых задачах, где она генерировала примеры параллельного мышления, затем метод с использованием RL был применен к более сложным задачам. Результаты показали, что модель, обученная с помощью Parallel-R1, демонстрирует более высокую стабильность и точность, чем другие подходы.
Этот метод может существенно повлиять на развитие бизнес-решений, где важны высококачественные системы рассуждения. Благодаря использованию параллельного мышления можно сделать ИИ более точным и адаптивным при решении комплексных задач в реальном времени.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🐳3
ИИ в Западных корпорациях — период «отрезвления» 😐
2025 год должен был стать годом ИИ, который обещал революцию в бизнесе. Но, оглянувшись на текущие данные, можно заметить, что картина не такая яркая, как предсказывали. 78% компаний утверждают, что внедрили ИИ хотя бы в одну бизнес-функцию, а инвестиции в технологию в 2024 году составили рекордные $250 миллиардов. Однако, на практике ситуация далеко не такая радужная.
Сентябрь 2025 года стал моментом, когда блеф о мгновенной революции ушел в прошлое. ИИ, безусловно, обладает огромным потенциалом, но путь к его эффективному использованию требует гораздо больше усилий и осознанных решений, чем ожидали многие. Нам предстоит увидеть, кто пройдет через все трудности и выйдет на другой уровень.
ИИ станет неотъемлемой частью бизнеса?
Data Science
2025 год должен был стать годом ИИ, который обещал революцию в бизнесе. Но, оглянувшись на текущие данные, можно заметить, что картина не такая яркая, как предсказывали. 78% компаний утверждают, что внедрили ИИ хотя бы в одну бизнес-функцию, а инвестиции в технологию в 2024 году составили рекордные $250 миллиардов. Однако, на практике ситуация далеко не такая радужная.
Крупные корпорации начали замедлять внедрение ИИ: уровень применения снизился с 14% до 12% за лето 2025 года. Вместо того чтобы двигаться к масштабированию, компании начали сталкиваться с неудачами. Свежий отчет MIT также указывает на тревожный факт — 95% пилотных проектов с генеративным ИИ не доходят до реального использования.
Сегодня мы наблюдаем переходный момент — период «отрезвления», когда эйфория от первых успехов сменяется осознанием того, что не все так просто. На первый план выходят реальные проблемы: 42% лидеров признаются, что ИИ в их компаниях — это, в основном, маркетинговый шум, а 82% сотрудников скептически относятся к технологии. Вопрос стоит так: это лишь временные трудности или начало конца ИИ-революции?
Что на самом деле происходит?
В 2025 году мы сталкиваемся с очевидным расколом среди компаний: одни продолжают активно инвестировать в ИИ, другие сомневаются. Крупные корпорации начали понимать, что технологии не так безупречны, как ожидалось, и с опаской смотрят на масштабирование. В то же время малый бизнес продолжает двигаться вперед, экспериментируя с ИИ в узких сферах, что демонстрирует большую гибкость и готовность к новым решениям.
Интересно, что большая часть ИИ-инвестиций идет на улучшение внутренней инфраструктуры — не в саму технологию, а в ее обвязку. Так, например, 44% расходов направляются на создание объяснимых и безопасных моделей. Это свидетельствует о том, что компании осознали: без понимания работы ИИ и его контроля технологии могут представлять огромный риск.
Развитие ИИ идет далеко не так стремительно, как было обещано. Большинство пилотных проектов терпят неудачу, а огромные деньги по-прежнему тратятся, но отдачи нет. Параллельно с этим, реальный успех находит тот бизнес, который оценивает возможности ИИ не как магию, а как инструмент для решения четких и конкретных задач.
Сентябрь 2025 года стал моментом, когда блеф о мгновенной революции ушел в прошлое. ИИ, безусловно, обладает огромным потенциалом, но путь к его эффективному использованию требует гораздо больше усилий и осознанных решений, чем ожидали многие. Нам предстоит увидеть, кто пройдет через все трудности и выйдет на другой уровень.
ИИ станет неотъемлемой частью бизнеса?
👍 — Он будет повсюду
🤔 — Это технология для элитных компаний
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29❤4🐳3
NVIDIA запускает nvmath-python: библиотеку для ускорения математических операций в Python 🍴
NVIDIA представила nvmath-python — библиотеку, которая позволяет легко интегрировать возможности её собственных математических библиотек, таких как cuBLASLt, в Python-экосистему. Это удобный инструмент для разработчиков, которым нужны мощные вычисления с оптимизацией под архитектуру NVIDIA.
Для разработчиков, работающих с числовыми вычислениями и машинным обучением, nvmath-python может стать полезным инструментом, особенно если вы хотите ускорить вычисления на архитектуре NVIDIA. Несмотря на то что библиотека пока находится в бета-версии, уже сейчас её возможности впечатляют.
Data Science
NVIDIA представила nvmath-python — библиотеку, которая позволяет легко интегрировать возможности её собственных математических библиотек, таких как cuBLASLt, в Python-экосистему. Это удобный инструмент для разработчиков, которым нужны мощные вычисления с оптимизацией под архитектуру NVIDIA.
Что может nvmath-python?
Библиотека совместима с популярными фреймворками и библиотеками, такими как NumPy, CuPy и PyTorch, и поддерживает высокую гибкость в настройке вычислений. Она позволяет:
• Работать с массивами из различных экосистем
• Подгонять точность вычислений, режимы умножения и операции эпилога
• Использовать передовые оптимизации от NVIDIA для ускорения математических и машинных задач
На данный момент проект находится в бета-версии, но уже доступен для использования.
Для разработчиков, работающих с числовыми вычислениями и машинным обучением, nvmath-python может стать полезным инструментом, особенно если вы хотите ускорить вычисления на архитектуре NVIDIA. Несмотря на то что библиотека пока находится в бета-версии, уже сейчас её возможности впечатляют.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤2🐳1
MalTerminal: первый вирус, который пишет сам себя с помощью ИИ
Хакеру больше не нужно сидеть ночами, вылизывая строчки кода для нового вируса. Зловред использует ии, в частности GPT-4, для самостоятельного создания кода на лету. Это не просто очередной троян — он сам «думает» и адаптируется, меняя свою структуру с каждой атакой😣
MalTerminal — это не просто вирус, это предупреждение. ИИ стал не просто инструментом, а потенциальным оружием. Мы находимся на грани новой эры, и от нас зависит, как мы сможем с этим справиться.
Data Science
Хакеру больше не нужно сидеть ночами, вылизывая строчки кода для нового вируса. Зловред использует ии, в частности GPT-4, для самостоятельного создания кода на лету. Это не просто очередной троян — он сам «думает» и адаптируется, меняя свою структуру с каждой атакой
Как это работает?
В отличие от старых вирусов, которые имели заранее подготовленный код, MalTerminal генерирует уникальные скрипты в реальном времени. После запуска на заражённой машине, вирус анализирует окружение и, через GPT-4, создаёт нужный код для атаки, будь то ransomware или reverse shell. Система, защищённая от известных угроз, не распознаёт эту атаку, потому что код постоянно меняется.
Как это выглядит в действии?
Злоумышленник запускает MalTerminal, программа анализирует ОС и защиту, а затем запрашивает у GPT-4 создание Python-скрипта для отключения Windows Defender и загрузки шифровальщика. Всё происходит автоматически и без следов.
Для компаний это угроза массовых персонализированных атак, которые могут адаптироваться под каждую систему и пользователя. Для пользователей — это риск, что хакеры смогут обойти все защитные механизмы, не имея глубоких знаний в программировании.
Как нам защититься?
Простое обновление антивируса уже не спасает. Нужно переходить к новым методам защиты, которые анализируют не код, а намерения программы: что она пытается сделать, куда лезет и какие данные скачивает. Появляются решения, такие как FalconShield, которые отслеживают активность программ, взаимодействующих с ИИ.
Киберугрозы станут массовыми и персонализированными. Мы увидим рост расходов на кибербезопасность и, возможно, запуск гонки ИИ-вооружений, где нейросети будут управлять атаками. Это также может привести к глобальным угрозам, если вирусы начнут атаковать критические инфраструктуры, такие как больницы или банки.
MalTerminal — это не просто вирус, это предупреждение. ИИ стал не просто инструментом, а потенциальным оружием. Мы находимся на грани новой эры, и от нас зависит, как мы сможем с этим справиться.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👎4⚡3🐳2
Российские ученые ускорили машинное обучение в распределенных системах без центрального сервера 😮
Новые разработки в области машинного обучения обещают улучшить эффективность распределенных систем. Ученые из России и США предложили децентрализованный алгоритм оптимизации, который работает без центрального сервера и адаптируется автоматически, без необходимости настройки параметров. Результаты исследования опубликованы на конференции NeurIPS.
Этот децентрализованный подход — важный шаг к созданию более эффективных и масштабируемых систем машинного обучения, которые могут работать без центральных серверов и настраиваться под реальную сеть. Такой алгоритм может найти широкое применение в распределенных вычислениях и помочь ускорить обучение моделей в самых разных областях.
Data Science
Новые разработки в области машинного обучения обещают улучшить эффективность распределенных систем. Ученые из России и США предложили децентрализованный алгоритм оптимизации, который работает без центрального сервера и адаптируется автоматически, без необходимости настройки параметров. Результаты исследования опубликованы на конференции NeurIPS.
Что изменилось в подходе?
Обычно в распределенных системах для координации работы используется центральный сервер, что может создавать узкие места. Децентрализованные алгоритмы, в свою очередь, требуют точной информации о параметрах задачи и сети, что делает их неэффективными в реальных условиях. Новый подход решает эту проблему, позволяя каждому агенту работать с локальной информацией и адаптировать параметры алгоритма в реальном времени.
Как работает новый алгоритм?
Используя метод «разбиения операторов» и новую метрику, алгоритм позволяет агентам самостоятельно определять оптимальный размер шага в процессе обучения, без необходимости обмениваться данными с другими агентами. Это значительно ускоряет вычисления и повышает масштабируемость, улучшая скорость сходимости.
Что показали эксперименты?
Эксперименты подтвердили, что новый алгоритм значительно превосходит существующие децентрализованные методы, особенно при решении сложных задач с большим объемом данных. Он был протестирован на задаче гребневой регрессии (ridge regression) и показал отличные результаты, особенно в слабо связанных сетях.
Этот децентрализованный подход — важный шаг к созданию более эффективных и масштабируемых систем машинного обучения, которые могут работать без центральных серверов и настраиваться под реальную сеть. Такой алгоритм может найти широкое применение в распределенных вычислениях и помочь ускорить обучение моделей в самых разных областях.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6😁1
Forwarded from xCode Journal
В честь сделки с Nvidia Альтман написал новое эссе под названием "Изобилие интеллекта"
Оно небольшое, поэтому прямо тут приведем перевод полностью с небольшими сокращениями:
Как это будет выглядеть, пока не до конца понятно, но один гигаватт в неделю – это 52 гигаватта в год
✖️ xCode Journal
Оно небольшое, поэтому прямо тут приведем перевод полностью с небольшими сокращениями:
Рост использования AI-сервисов поражает, и мы ожидаем, что в будущем он станет ещё более стремительным.
По мере того как ИИ становится умнее, доступ к нему может стать не только ключевым драйвером экономики, но и со временем – базовым правом человека. Почти каждый захочет, чтобы у него было больше ИИ, работающего на его благо.
Чтобы обеспечить миру необходимые мощности для инференса и обучения всё более совершенных моделей, мы закладываем фундамент для масштабного роста AI-инфраструктуры.
Если ИИ сохранит текущую траекторию развития, нас ждут невероятные возможности. Например, с 10 гигаваттами вычислительных мощностей ИИ может найти способ вылечить рак или создать персонализированное обучение для каждого ребёнка на Земле. Но если мощности будут ограничены, придётся выбирать, что важнее. Никто не хочет делать такой выбор – значит, нужно строить.
Наша цель проста: создать фабрику, которая сможет выпускать по гигаватту новых AI-мощностей каждую неделю. Это невероятно сложная задача, требующая инноваций на всех уровнях – от чипов и энергетики до строительства и робототехники. Мы уже активно работаем над этим и верим, что это возможно. В нашем понимании, это может стать самым важным инфраструктурным проектом в истории.
В ближайшие месяцы мы поделимся планами и расскажем о партнёрах, а позже о том, как будем финансировать проект. Ведь рост вычислительных мощностей – ключ к росту дохода, и у нас есть несколько нестандартных идей.
Как это будет выглядеть, пока не до конца понятно, но один гигаватт в неделю – это 52 гигаватта в год
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳6❤1
Новый метод обучения нейросетей: что предлагает Thinking Machines?
Исследователи стартапа Thinking Machines, возглавляемого Мирой Мурати, представили новую методику обучения нейросетей, которая обещает повысить стабильность и эффективность работы с моделями. В отличие от традиционных методов регулирования весов и активаций, авторы предлагают подход, который меняет саму структуру нейросетей.
Подход Thinking Machines представляет собой интересную и фундаментальную инновацию в обучении нейросетей. Хотя этот метод ещё далёк от практического применения, его потенциал в решении проблем численной стабильности и масштабируемости нейросетей нельзя недооценивать.
Data Science
Исследователи стартапа Thinking Machines, возглавляемого Мирой Мурати, представили новую методику обучения нейросетей, которая обещает повысить стабильность и эффективность работы с моделями. В отличие от традиционных методов регулирования весов и активаций, авторы предлагают подход, который меняет саму структуру нейросетей.
Проблема, с которой сталкиваются нейросети
Во время обучения нейросетей одна из главных трудностей — это контроль за масштабами тензоров: весов, активаций и градиентов. Когда эти значения становятся слишком большими или маленькими, возникает ряд численных проблем, таких как взрывы и исчезающие градиенты, которые мешают корректному обучению. Для борьбы с этим часто используются такие методы, как gradient clipping, weight decay и layer norm, но они не решают проблему в корне.
Новая идея: обучение на многообразии
Предлагаемый подход идет намного глубже: вместо того, чтобы просто корректировать размеры тензоров, авторы предлагают ограничить сами структуры тензоров, заставив их "жить" в определённом многообразии (или manifold).
Предположим, мы хотим, чтобы веса полносвязных слоёв не растягивались слишком сильно. Для этого можно выбрать такое многообразие, где строки и столбцы матрицы ортонормированы. Это условие позволит избежать значительного увеличения нормы сигнала при обучении, что важно для стабильности сети.
— Обновление весов: В обычных нейросетях веса обновляются по стандартной формуле. Однако при использовании нового подхода, перед тем как вычесть градиент, мы должны проецировать его в касательное пространство. Это гарантирует, что обновление не выйдет за пределы нужного многообразия.
— Проекция и ретракция: Процесс обновления весов включает два этапа — проекцию градиента в нужное пространство и ретракцию для стабилизации. Это помогает минимизировать возможные численные ошибки, которые могут вывести матрицы за пределы заданного пространства.
— Равномерное движение слоёв: Для равномерной стабилизации предложено использовать "бюджет шагов", чтобы все слои модели двигались синхронно, что повышает общую стабильность.
Результаты и ограничения
На тесте с CIFAR-10 новый метод показал лучшие результаты по сравнению с популярным оптимизатором AdamW, в том числе по стабильности обучения. Однако, несмотря на перспективы, у метода есть и важные вопросы:
• Как правильно выбирать пространства для разных типов слоёв?
• Будет ли метод эффективно работать на больших моделях и на float16?
• Как его масштабировать для более сложных задач?
• И, конечно, серьёзные вычислительные затраты.
Подход Thinking Machines представляет собой интересную и фундаментальную инновацию в обучении нейросетей. Хотя этот метод ещё далёк от практического применения, его потенциал в решении проблем численной стабильности и масштабируемости нейросетей нельзя недооценивать.
🔥 — Подход имеет потенциал для масштабирования и решения текущих проблем
🤔 — Сложности с вычислениями и масштабированием остаются слишком большими
Data Science
🔥6🐳4
Google готовит революцию в мире машинного обучения: SQL, Python и Spark в одном месте 😊
По слухам, Google разрабатывает новую интегрированную среду для специалистов по машинному обучению, которая объединит SQL, Python и Apache Spark в одном рабочем пространстве. Это решение призвано устранить привычные проблемы, с которыми сталкиваются аналитики и разработчики: необходимость переключаться между различными инструментами и платформами.
Google, похоже, готовит значительное упрощение для всех, кто работает с данными. Уменьшение необходимости в переключении между инструментами позволит ускорить рабочие процессы и улучшить производительность команд. Как вы думаете, поможет ли объединение в одной платформе ускорить процесс разработки?
Data Science
По слухам, Google разрабатывает новую интегрированную среду для специалистов по машинному обучению, которая объединит SQL, Python и Apache Spark в одном рабочем пространстве. Это решение призвано устранить привычные проблемы, с которыми сталкиваются аналитики и разработчики: необходимость переключаться между различными инструментами и платформами.
Проблема, которую решает Google
Для большинства специалистов по данным процесс работы с машинным обучением выглядит так: сначала они извлекают данные с помощью SQL из баз данных, затем экспортируют их в Python, чтобы настроить модели, и, наконец, запускают вычисления на Apache Spark. Это вызывает лишнюю путаницу, задержки и дополнительные затраты времени.
Что меняет Colab Enterprise?
Google представил улучшенную версию своих блокнотов Colab Enterprise, которая должна упростить этот процесс и предоставить единое рабочее пространство для всех нужных операций:
• Предварительный просмотр ячеек SQL: Теперь разработчики смогут работать с данными непосредственно в SQL, не покидая рабочее окружение Colab.
• Интеграция Data Science Agent: Новый агент будет помогать в автоматизации анализа данных и разработки моделей машинного обучения, значительно ускоряя процесс.
Почему это важно?
Эти улучшения значительно облегчают работу специалистов по машинному обучению, устраняя необходимость в множественных экспортированных и импортированных данных между различными платформами. Теперь процесс может быть сосредоточен в одном инструменте, что повысит скорость разработки и улучшит взаимодействие с данными.
Google, похоже, готовит значительное упрощение для всех, кто работает с данными. Уменьшение необходимости в переключении между инструментами позволит ускорить рабочие процессы и улучшить производительность команд. Как вы думаете, поможет ли объединение в одной платформе ускорить процесс разработки?
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
Senior Data Scientist LLM/ Ведущий специалист по данным
Удаленно (Санкт-Петербург)
Вейваксесс — аккредитованная IT-компания с 24-летней историей. Мы специализируемся на разработке ПО любой сложности под заказ, помогая клиентам повышать конкурентоспособность и эффективность бизнеса.
Требования:
— Опыт работы Data Scientist'ом от 5 лет
— Английский — уверенный B2 и выше, комфортное общение с носителями языка
— Глубокие знания нейросетей и архитектур для работы с последовательностями (RNN, LSTM, Transformers, CNN, Attention)
— Опыт работы с LLM и современными подходами, включая RAG и LLM-агентов
— Отличное владение Python
— Навыки презентации результатов работы
— Опыт в MLOps
✔️ Подробнее о вакансии на hh.ru
✔️ Контакт для связи
Удаленно (Санкт-Петербург)
Вейваксесс — аккредитованная IT-компания с 24-летней историей. Мы специализируемся на разработке ПО любой сложности под заказ, помогая клиентам повышать конкурентоспособность и эффективность бизнеса.
Требования:
— Опыт работы Data Scientist'ом от 5 лет
— Английский — уверенный B2 и выше, комфортное общение с носителями языка
— Глубокие знания нейросетей и архитектур для работы с последовательностями (RNN, LSTM, Transformers, CNN, Attention)
— Опыт работы с LLM и современными подходами, включая RAG и LLM-агентов
— Отличное владение Python
— Навыки презентации результатов работы
— Опыт в MLOps
Please open Telegram to view this post
VIEW IN TELEGRAM
spb.hh.ru
Вакансия Senior Data Scientist LLM/ Ведущий специалист по данным в Санкт-Петербурге, работа в компании WaveAccess
Зарплата: не указана. Санкт-Петербург. Требуемый опыт: более 6 лет. Полная. Дата публикации: 10.09.2025.
❤3
LLM Embeddings: погружение в основы 🗒
LLM Embeddings — это не просто теоретическая основа, а мощный инструмент, где объясняют, как модели «понимают» текст. Эмбеддинги представляют слова, фразы или тексты в виде векторов. Эти векторы можно использовать для анализа и обработки информации с помощью машин. Однако не все эмбеддинги одинаковы. Важно выбрать правильную технику и обучить векторы для конкретных задач.
Какие вопросы раскрывает сервис:
Понимание эмбеддингов важно не только для работы с моделями, но и для создания сложных систем анализа данных. Это открывает новые возможности для улучшения качества и точности машинного понимания.
Data Science
LLM Embeddings — это не просто теоретическая основа, а мощный инструмент, где объясняют, как модели «понимают» текст. Эмбеддинги представляют слова, фразы или тексты в виде векторов. Эти векторы можно использовать для анализа и обработки информации с помощью машин. Однако не все эмбеддинги одинаковы. Важно выбрать правильную технику и обучить векторы для конкретных задач.
Какие вопросы раскрывает сервис:
• Как создавать качественные эмбеддинги?
• Как работают такие техники, как BERT, делающие их эффективными для обработки текста?
• Как эмбеддинги применяются в современных LLM и повышают их точность?
• Почему анализ эмбеддингов в виде графов может дать новые инсайты о структуре данных?
Понимание эмбеддингов важно не только для работы с моделями, но и для создания сложных систем анализа данных. Это открывает новые возможности для улучшения качества и точности машинного понимания.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3⚡2🐳1
This media is not supported in your browser
VIEW IN TELEGRAM
Станьте разработчиком нейро-сотрудников на Python и зарабатывайте от 150.000р в месяц 🔥🔥🔥
Мы научим вас создавать топовых нейро-сотрудников на базе GPT-4 Omni, и вы сможете:
1️⃣ Устроиться разработчиком в крупную компанию и зарабатывать от 150 тысяч ₽ в месяц
2️⃣ Разрабатывать такие проекты на заказ и зарабатывать от 500 тысяч ₽ за проект
3️⃣ Создать нейро-сотрудника в вашей компании и вырасти на +30-100% в зарплате
Что будет на интенсиве?
🧬 Теория: как создаются нейро-сотрудники с GPT-4o на Python
🧬 Практика: мы создадим нейро-консультанта, нейро-HR, нейро-маркетолога и др.
Ведущий интенсива - Senior AI разработчик нейросетей и основатель Университета искусственного интеллекта
🔥 Регистрируйтесь на бесплатный интенсив! Встречаемся в ближайший четверг!
Мы научим вас создавать топовых нейро-сотрудников на базе GPT-4 Omni, и вы сможете:
1️⃣ Устроиться разработчиком в крупную компанию и зарабатывать от 150 тысяч ₽ в месяц
2️⃣ Разрабатывать такие проекты на заказ и зарабатывать от 500 тысяч ₽ за проект
3️⃣ Создать нейро-сотрудника в вашей компании и вырасти на +30-100% в зарплате
Что будет на интенсиве?
🧬 Теория: как создаются нейро-сотрудники с GPT-4o на Python
🧬 Практика: мы создадим нейро-консультанта, нейро-HR, нейро-маркетолога и др.
Ведущий интенсива - Senior AI разработчик нейросетей и основатель Университета искусственного интеллекта
🔥 Регистрируйтесь на бесплатный интенсив! Встречаемся в ближайший четверг!
❤2
Грег Брокман, президент OpenAI, рассказал, что в будущем у каждого человека будет свой ИИ-агент, который будет работать 24/7, даже когда мы спим. Но для реализации этой идеи потребуется порядка 10 миллиардов GPU, ведь речь идет о запуске уже обученных моделей ИИ для конечных пользователей.
Однако эта цифра касается только инференса. Тренировка ИИ требует еще больше мощностей. Брокман также отметил, что с ростом спроса на ИИ могут возникнуть проблемы не только с GPU и памятью, но и с энергией, охлаждением дата-центров и другими ресурсами.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
😁5❤2