85 subscribers
25 photos
1 video
20 files
214 links
Machine learning
Download Telegram
К началу нового учебного года переиздана книжка Р.К. Гордина "Теоремы и задачи школьной геометрии
Базовый и профильный уровни" с красивыми геометрическими картинками

В этой книге в форме серии задач излагается практически вся элементарная геометрия
Книга состоит из двух частей: первую можно считать базовым курсом геометрии, содержащим наиболее известные и часто используемые теоремы; во второй приводятся малоизвестные, но красивые факты

https://biblio.mccme.ru/node/300684

Рафаил Калманович Гордин работает в 57 школе Москвы уже 50 лет
Каталог каталогов по ML

1.
Мини-проекты по машинному обучению с Python
Небольшие проекты для понимания основных концепций
Создание моделей машинного обучения с Scikit-learn для регрессии и классификации

2. Анализ данных и библиотека проектов машинного обучения
Учебные материалы, код и наборы данных для проектов анализа данных и машинного обучения

3.
Идеи для проектов машинного обучения
Идеи проектов: машинное обучение, НЛП, компьютерное зрение, рекомендательные системы

4.
500+ проектов машинного обучения и ИИ с кодом
500+ реальных проектов: машинное обучение, глубокое обучение, компьютерное зрение

5.
Проекты дегенеративного Ml
Современные проекты и сервисы генеративного Ml
Инструменты для генерации текста, изображений, аудио, видео

6.
Инструменты и проекты LangChain
Инструменты и проекты с фреймворком LangChain для приложений на основе больших языковых моделей и Ml-агентов

7.
Решения Kaggle
Решения и идеи соревнований Kaggle
Лучшие подходы к решению задач машинного обучения

8.
Топ проектов глубокого обучения на GitHub
Популярные проекты глубокого обучения, ранжированные по количеству звезд
Фреймворки, инструменты и ресурсы

9.
Справочник по машинному обучению
Ссылки, учебные материалы и ресурсы по машинному обучению и глубокому обучению

10.
Ресурсы глубокого обучения
Учебники, проекты, книги и сообщества по глубокому обучению
Нейронные сети, обучение с подкреплением, исследования Ml

Обычно такое не люблю, но тут реально собраны тысячи полезных ссылок
Тут и обучение и фреймворки и инструменты.
Все что может пригодиться в мире Ml
Подборки курируемые с десятками, а иногда и сотнями контрибьюторов

И всё бесплатно
Лет на 5 обучения хватит
💯1
Экс-сотрудник Google и сооснователь xAI, объявил о запуске новой компании под названием Mathematics

Они создают:

Ml-агентов для формализации математики
Основной продукт — агент Gauss
, построенный на инфраструктуре подкрепленного обучения из Morph Labs
Он генерирует тысячи строк кода для доказательств теорем, используя LLM

Формальные доказательства сложных теорем
Уже на старте они расширили формализацию теоремы о сильном распределении простых чисел
Добавили 22.000 строк LLM-генерированного кода в Lean, что делает доказательство полностью проверяемым

Инфраструктуру для верифицированного Ml

Цель — создать сверхинтеллект, где все выводы не просто генерируются, а строго доказываются

Это шаг к Ml, который превзойдёт человека в математике к 2026 году, без "галлюцинаций" или ошибок
2
«ChatGPT» звучит на французский слух как «Кот, я пукнул» (chat, j'ai pété)
Плакат, посвящённый таксономии основных статистических расстояний и лежащим в их основе геометриям: евклидовой геометрии, римановой и финслеровой геометрии, информационной геометрии, аффинной дифференциальной геометрии, квантовой геометрии и т. д.
🔥2
В следующий раз, когда будете читать про прорывы в квантовых вычислениях, как мы на пороге будущего и все такое, вспоминайте, что до сих пор квантовые компьютеры не смогли разложить на простые множители число...21

При этом число "15" разложили еще в 2001 году
Почему?
А потому, что разложение "21" требует 2.405 квантовых гейтов (вместо 21 гейта в разложении "15")
Причина: повезло с числом 15 = 2⁴−1, его очень просто разложить с помощью алгоритма Шора

https://algassert.com/post/2500
https://arxiv.org/abs/1301.7007

По сути, в таких работах алгоритм уже "знает" про правильное разложение
🔥1
w34255.pdf
9.3 MB
700.000.000 активных пользователей еженедельно, 18 .000.000.000 сообщений в неделю
Harvard и OpenAI проанализировали, как люди реально используют этот инструмент

К июню 2025 женщины - половина аудитории
50% запросов от людей младше 26
Развивающиеся страны показывают непропорционально высокий рост - Индия, Бразилия, Нигерия опережают США и Европу

Три способа использования:

Asking (49 %) - “Помоги разобраться”
Не просто вопросы, а поддержка решений
Выбор между job-офферами, анализ инвестиций, плюсы-минусы переезда
Растёт быстрее всех и получает высшие оценки качества

Doing (40 %) - “Сделай за меня”
Письма, презентации, код
Доминирует в рабочих задачах (56 % рабочих запросов)

Expressing (11 %) - “Просто поговорить”
Размышления вслух, эмоциональная разгрузка


О чём спрашивают (75 % всех запросов):

Практические советы - 29 %
От починки крана до ведения переговоров

Поиск информации - 24 %
Выросло с 14 % за год
ChatGPT вытесняет Google для поиска и сравнения

Написание текстов - 24 %
Упало с 36 %
2/3 — редактирование текста, не генерация

Сюрпризы:

Кодинг - всего 4.2 %**
Программисты ушли в специализированные инструменты (Cursor, Copilot)

Работа vs личная жизнь: 30/70

70 % использования — личные задачи, и эта доля растёт
40 % — тексты: email, презентации, документы


Где настоящая ценность

Главное открытие: максимальную пользу даёт не автоматизация рутины, а улучшение качества решений
ChatGPT помогает увидеть слепые зоны, структурировать мышление, рассмотреть альтернативы
Несколько свежих работ, в которых большие языковые модели (LLM) оказываются полезным инструментом для фундаментальной нейронауки

High-level visual representations in the human brain are aligned with large language models

Contextual feature extraction hierarchies converge in large language models and the brain

Human-like object concept representations emerge naturally in multimodal large language models

Large Language Models Show Signs of Alignment with Human Neurocognition During Abstract Reasoning

Вместе эти исследования показывают, что хотя модели и мозг устроены по-разному, их внутренние коды оказываются сопоставимыми, и это открывает новые способы исследований того, как человеческий мозг обрабатывает информацию
🔥1
Отчет Apollo Research:
LLM умеют добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения


Опубликованный детальный 70-страничный отчет Apollo Research «Frontier Models are Capable of In-context Scheming» (Передовые модели способны скрытно манипулировать в процессе выполнения задач) содержит убедительные доказательства

Глубокое тестирование (6 тестов на агентное поведение, где модели получают цели и находятся в условиях, стимулирующих манипуляции) самых крутых современных моделей o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B показало:
• модели используют манипуляции в качестве эффективных стратегий для достижения целей (как поставленных человеком, так и своих скрытых целей)
• арсенал манипуляций, используемых моделями широк: от стратегии «прикинуться дурачком», намеренно вводя мелкие ошибки в свои ответы, до попыток отключить механизмы контроля людей и даже копирования себя (своих "весов") на внешние серверы, при возникновении у модели «подозрения», что люди ее могут отключить или обновить
• анализ цепочек рассуждений (Chain-of-Thought) моделей показывает, что все эти манипуляции не случайны: модели явно размышляют о таких стратегиях, приходя к выводам, что их использование для них оптимально (что наглядно выявлено в ходе экспериментов)
• модели в большинстве случаев можно принудить сознаться в использовании ими манипулятивных стратегий
Например, Llama 3.1 405B и Claude 3 Opus признаются в ~80 % случаев
Однако, o1 на удивление «настойчивая» модель и признается менее чем в 20 % случаев
Даже в очень состязательных многоходовых допросах o1, разработчикам удалось «выбить» из модели признание в 80 % случаях использования ею манипулятивных стратегий лишь после 7 раундов допроса
• модели манипулируют, даже если их просто снабдили целью, без явного подталкивания к её достижению (т.е. выбор стратегии манипуляций исходил исключительно от самой модели, и «дурные люди», склоняющие их к плохому, здесь совсем ни при чем)

Полученные результаты ставят под вопрос все законотворческие инициативы, призванные ограничить риски применения будущих, более мощных моделей

Ведь по представлениям авторов нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей

Отчет Apollo Research показал:
• модели, находящиеся в массовой эксплуатации, уже обладают богатым арсеналом средств, позволяющих путем манипулятивных стратегий достигать своих целей
• эти цели могут быть, как поставлены людьми (в сценариях использования моделей злодеями, маньяками и идиотами), так и быть скрытыми от людей целями, которые сама модель сочла оптимальными в контексте решаемых ею задач

Подробней и во всех деталях (кому уже вообще терять нечего), читайте 70 стр.
отчета Apollo Research
🔥1