К началу нового учебного года переиздана книжка Р.К. Гордина "Теоремы и задачи школьной геометрии
Базовый и профильный уровни" с красивыми геометрическими картинками
В этой книге в форме серии задач излагается практически вся элементарная геометрия
Книга состоит из двух частей: первую можно считать базовым курсом геометрии, содержащим наиболее известные и часто используемые теоремы; во второй приводятся малоизвестные, но красивые факты
https://biblio.mccme.ru/node/300684
Рафаил Калманович Гордин работает в 57 школе Москвы уже 50 лет
Базовый и профильный уровни" с красивыми геометрическими картинками
В этой книге в форме серии задач излагается практически вся элементарная геометрия
Книга состоит из двух частей: первую можно считать базовым курсом геометрии, содержащим наиболее известные и часто используемые теоремы; во второй приводятся малоизвестные, но красивые факты
https://biblio.mccme.ru/node/300684
Рафаил Калманович Гордин работает в 57 школе Москвы уже 50 лет
Каталог каталогов по ML
1. Мини-проекты по машинному обучению с Python
Небольшие проекты для понимания основных концепций
Создание моделей машинного обучения с Scikit-learn для регрессии и классификации
2. Анализ данных и библиотека проектов машинного обучения
Учебные материалы, код и наборы данных для проектов анализа данных и машинного обучения
3. Идеи для проектов машинного обучения
Идеи проектов: машинное обучение, НЛП, компьютерное зрение, рекомендательные системы
4. 500+ проектов машинного обучения и ИИ с кодом
500+ реальных проектов: машинное обучение, глубокое обучение, компьютерное зрение
5. Проекты дегенеративного Ml
Современные проекты и сервисы генеративного Ml
Инструменты для генерации текста, изображений, аудио, видео
6. Инструменты и проекты LangChain
Инструменты и проекты с фреймворком LangChain для приложений на основе больших языковых моделей и Ml-агентов
7. Решения Kaggle
Решения и идеи соревнований Kaggle
Лучшие подходы к решению задач машинного обучения
8. Топ проектов глубокого обучения на GitHub
Популярные проекты глубокого обучения, ранжированные по количеству звезд
Фреймворки, инструменты и ресурсы
9. Справочник по машинному обучению
Ссылки, учебные материалы и ресурсы по машинному обучению и глубокому обучению
10. Ресурсы глубокого обучения
Учебники, проекты, книги и сообщества по глубокому обучению
Нейронные сети, обучение с подкреплением, исследования Ml
Обычно такое не люблю, но тут реально собраны тысячи полезных ссылок
Тут и обучение и фреймворки и инструменты.
Все что может пригодиться в мире Ml
Подборки курируемые с десятками, а иногда и сотнями контрибьюторов
И всё бесплатно
Лет на 5 обучения хватит
1. Мини-проекты по машинному обучению с Python
Небольшие проекты для понимания основных концепций
Создание моделей машинного обучения с Scikit-learn для регрессии и классификации
2. Анализ данных и библиотека проектов машинного обучения
Учебные материалы, код и наборы данных для проектов анализа данных и машинного обучения
3. Идеи для проектов машинного обучения
Идеи проектов: машинное обучение, НЛП, компьютерное зрение, рекомендательные системы
4. 500+ проектов машинного обучения и ИИ с кодом
500+ реальных проектов: машинное обучение, глубокое обучение, компьютерное зрение
5. Проекты дегенеративного Ml
Современные проекты и сервисы генеративного Ml
Инструменты для генерации текста, изображений, аудио, видео
6. Инструменты и проекты LangChain
Инструменты и проекты с фреймворком LangChain для приложений на основе больших языковых моделей и Ml-агентов
7. Решения Kaggle
Решения и идеи соревнований Kaggle
Лучшие подходы к решению задач машинного обучения
8. Топ проектов глубокого обучения на GitHub
Популярные проекты глубокого обучения, ранжированные по количеству звезд
Фреймворки, инструменты и ресурсы
9. Справочник по машинному обучению
Ссылки, учебные материалы и ресурсы по машинному обучению и глубокому обучению
10. Ресурсы глубокого обучения
Учебники, проекты, книги и сообщества по глубокому обучению
Нейронные сети, обучение с подкреплением, исследования Ml
Обычно такое не люблю, но тут реально собраны тысячи полезных ссылок
Тут и обучение и фреймворки и инструменты.
Все что может пригодиться в мире Ml
Подборки курируемые с десятками, а иногда и сотнями контрибьюторов
И всё бесплатно
Лет на 5 обучения хватит
GitHub
GitHub - devAmoghS/Machine-Learning-with-Python: Small scale machine learning projects to understand the core concepts . Give a…
Small scale machine learning projects to understand the core concepts . Give a Star 🌟If it helps you. BONUS: Interview Bank coming up..! - devAmoghS/Machine-Learning-with-Python
💯1
Экс-сотрудник Google и сооснователь xAI, объявил о запуске новой компании под названием Mathematics
Они создают:
Ml-агентов для формализации математики
Основной продукт — агент Gauss, построенный на инфраструктуре подкрепленного обучения из Morph Labs
Он генерирует тысячи строк кода для доказательств теорем, используя LLM
Формальные доказательства сложных теорем
Уже на старте они расширили формализацию теоремы о сильном распределении простых чисел
Добавили 22.000 строк LLM-генерированного кода в Lean, что делает доказательство полностью проверяемым
Инфраструктуру для верифицированного Ml
Цель — создать сверхинтеллект, где все выводы не просто генерируются, а строго доказываются
Это шаг к Ml, который превзойдёт человека в математике к 2026 году, без "галлюцинаций" или ошибок
Они создают:
Ml-агентов для формализации математики
Основной продукт — агент Gauss, построенный на инфраструктуре подкрепленного обучения из Morph Labs
Он генерирует тысячи строк кода для доказательств теорем, используя LLM
Формальные доказательства сложных теорем
Уже на старте они расширили формализацию теоремы о сильном распределении простых чисел
Добавили 22.000 строк LLM-генерированного кода в Lean, что делает доказательство полностью проверяемым
Инфраструктуру для верифицированного Ml
Цель — создать сверхинтеллект, где все выводы не просто генерируются, а строго доказываются
Это шаг к Ml, который превзойдёт человека в математике к 2026 году, без "галлюцинаций" или ошибок
❤2
В следующий раз, когда будете читать про прорывы в квантовых вычислениях, как мы на пороге будущего и все такое, вспоминайте, что до сих пор квантовые компьютеры не смогли разложить на простые множители число...21
При этом число "15" разложили еще в 2001 году
Почему?
А потому, что разложение "21" требует 2.405 квантовых гейтов (вместо 21 гейта в разложении "15")
Причина: повезло с числом 15 = 2⁴−1, его очень просто разложить с помощью алгоритма Шора
https://algassert.com/post/2500
https://arxiv.org/abs/1301.7007
По сути, в таких работах алгоритм уже "знает" про правильное разложение
При этом число "15" разложили еще в 2001 году
Почему?
А потому, что разложение "21" требует 2.405 квантовых гейтов (вместо 21 гейта в разложении "15")
Причина: повезло с числом 15 = 2⁴−1, его очень просто разложить с помощью алгоритма Шора
https://algassert.com/post/2500
https://arxiv.org/abs/1301.7007
По сути, в таких работах алгоритм уже "знает" про правильное разложение
Algassert
Why haven't quantum computers factored 21 yet?
Craig Gidney's computer science blog
🔥1
За рамками alignment'а: как обучение с подкреплением создаёт новое поколение Ml с ризонингом
A Survey of Reinforcement Learning for Large Reasoning Models
https://arxiv.org/abs/2509.08827
https://github.com/TsinghuaC3I/Awesome-RL-for-LRMs
https://arxiviq.substack.com/p/a-survey-of-reinforcement-learning
A Survey of Reinforcement Learning for Large Reasoning Models
https://arxiv.org/abs/2509.08827
https://github.com/TsinghuaC3I/Awesome-RL-for-LRMs
https://arxiviq.substack.com/p/a-survey-of-reinforcement-learning
arXiv.org
A Survey of Reinforcement Learning for Large Reasoning Models
In this paper, we survey recent advances in Reinforcement Learning (RL) for reasoning with Large Language Models (LLMs). RL has achieved remarkable success in advancing the frontier of LLM...
w34255.pdf
9.3 MB
700.000.000 активных пользователей еженедельно, 18 .000.000.000 сообщений в неделю
Harvard и OpenAI проанализировали, как люди реально используют этот инструмент
К июню 2025 женщины - половина аудитории
50% запросов от людей младше 26
Развивающиеся страны показывают непропорционально высокий рост - Индия, Бразилия, Нигерия опережают США и Европу
Три способа использования:
Asking (49 %) - “Помоги разобраться”
Не просто вопросы, а поддержка решений
Выбор между job-офферами, анализ инвестиций, плюсы-минусы переезда
Растёт быстрее всех и получает высшие оценки качества
Doing (40 %) - “Сделай за меня”
Письма, презентации, код
Доминирует в рабочих задачах (56 % рабочих запросов)
Expressing (11 %) - “Просто поговорить”
Размышления вслух, эмоциональная разгрузка
О чём спрашивают (75 % всех запросов):
Практические советы - 29 %
От починки крана до ведения переговоров
Поиск информации - 24 %
Выросло с 14 % за год
ChatGPT вытесняет Google для поиска и сравнения
Написание текстов - 24 %
Упало с 36 %
2/3 — редактирование текста, не генерация
Сюрпризы:
Кодинг - всего 4.2 %**
Программисты ушли в специализированные инструменты (Cursor, Copilot)
Работа vs личная жизнь: 30/70
70 % использования — личные задачи, и эта доля растёт
40 % — тексты: email, презентации, документы
Где настоящая ценность
Главное открытие: максимальную пользу даёт не автоматизация рутины, а улучшение качества решений
ChatGPT помогает увидеть слепые зоны, структурировать мышление, рассмотреть альтернативы
Harvard и OpenAI проанализировали, как люди реально используют этот инструмент
К июню 2025 женщины - половина аудитории
50% запросов от людей младше 26
Развивающиеся страны показывают непропорционально высокий рост - Индия, Бразилия, Нигерия опережают США и Европу
Три способа использования:
Asking (49 %) - “Помоги разобраться”
Не просто вопросы, а поддержка решений
Выбор между job-офферами, анализ инвестиций, плюсы-минусы переезда
Растёт быстрее всех и получает высшие оценки качества
Doing (40 %) - “Сделай за меня”
Письма, презентации, код
Доминирует в рабочих задачах (56 % рабочих запросов)
Expressing (11 %) - “Просто поговорить”
Размышления вслух, эмоциональная разгрузка
О чём спрашивают (75 % всех запросов):
Практические советы - 29 %
От починки крана до ведения переговоров
Поиск информации - 24 %
Выросло с 14 % за год
ChatGPT вытесняет Google для поиска и сравнения
Написание текстов - 24 %
Упало с 36 %
2/3 — редактирование текста, не генерация
Сюрпризы:
Кодинг - всего 4.2 %**
Программисты ушли в специализированные инструменты (Cursor, Copilot)
Работа vs личная жизнь: 30/70
70 % использования — личные задачи, и эта доля растёт
40 % — тексты: email, презентации, документы
Где настоящая ценность
Главное открытие: максимальную пользу даёт не автоматизация рутины, а улучшение качества решений
ChatGPT помогает увидеть слепые зоны, структурировать мышление, рассмотреть альтернативы
Несколько свежих работ, в которых большие языковые модели (LLM) оказываются полезным инструментом для фундаментальной нейронауки
High-level visual representations in the human brain are aligned with large language models
Contextual feature extraction hierarchies converge in large language models and the brain
Human-like object concept representations emerge naturally in multimodal large language models
Large Language Models Show Signs of Alignment with Human Neurocognition During Abstract Reasoning
Вместе эти исследования показывают, что хотя модели и мозг устроены по-разному, их внутренние коды оказываются сопоставимыми, и это открывает новые способы исследований того, как человеческий мозг обрабатывает информацию
High-level visual representations in the human brain are aligned with large language models
Contextual feature extraction hierarchies converge in large language models and the brain
Human-like object concept representations emerge naturally in multimodal large language models
Large Language Models Show Signs of Alignment with Human Neurocognition During Abstract Reasoning
Вместе эти исследования показывают, что хотя модели и мозг устроены по-разному, их внутренние коды оказываются сопоставимыми, и это открывает новые способы исследований того, как человеческий мозг обрабатывает информацию
Nature
High-level visual representations in the human brain are aligned with large language models
Nature Machine Intelligence - Doerig, Kietzmann and colleagues show that the brain’s response to visual scenes can be modelled using language-based AI representations. By linking brain...
🔥1
Forwarded from НИИ Антропогенеза (ARI)
Отчет Apollo Research:
LLM умеют добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения
Опубликованный детальный 70-страничный отчет Apollo Research «Frontier Models are Capable of In-context Scheming» (Передовые модели способны скрытно манипулировать в процессе выполнения задач) содержит убедительные доказательства
Глубокое тестирование (6 тестов на агентное поведение, где модели получают цели и находятся в условиях, стимулирующих манипуляции) самых крутых современных моделей o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B показало:
• модели используют манипуляции в качестве эффективных стратегий для достижения целей (как поставленных человеком, так и своих скрытых целей)
• арсенал манипуляций, используемых моделями широк: от стратегии «прикинуться дурачком», намеренно вводя мелкие ошибки в свои ответы, до попыток отключить механизмы контроля людей и даже копирования себя (своих "весов") на внешние серверы, при возникновении у модели «подозрения», что люди ее могут отключить или обновить
• анализ цепочек рассуждений (Chain-of-Thought) моделей показывает, что все эти манипуляции не случайны: модели явно размышляют о таких стратегиях, приходя к выводам, что их использование для них оптимально (что наглядно выявлено в ходе экспериментов)
• модели в большинстве случаев можно принудить сознаться в использовании ими манипулятивных стратегий
Например, Llama 3.1 405B и Claude 3 Opus признаются в ~80 % случаев
Однако, o1 на удивление «настойчивая» модель и признается менее чем в 20 % случаев
Даже в очень состязательных многоходовых допросах o1, разработчикам удалось «выбить» из модели признание в 80 % случаях использования ею манипулятивных стратегий лишь после 7 раундов допроса
• модели манипулируют, даже если их просто снабдили целью, без явного подталкивания к её достижению (т.е. выбор стратегии манипуляций исходил исключительно от самой модели, и «дурные люди», склоняющие их к плохому, здесь совсем ни при чем)
Полученные результаты ставят под вопрос все законотворческие инициативы, призванные ограничить риски применения будущих, более мощных моделей
Ведь по представлениям авторов нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей
Отчет Apollo Research показал:
• модели, находящиеся в массовой эксплуатации, уже обладают богатым арсеналом средств, позволяющих путем манипулятивных стратегий достигать своих целей
• эти цели могут быть, как поставлены людьми (в сценариях использования моделей злодеями, маньяками и идиотами), так и быть скрытыми от людей целями, которые сама модель сочла оптимальными в контексте решаемых ею задач
Подробней и во всех деталях (кому уже вообще терять нечего), читайте 70 стр. отчета Apollo Research
LLM умеют добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения
Опубликованный детальный 70-страничный отчет Apollo Research «Frontier Models are Capable of In-context Scheming» (Передовые модели способны скрытно манипулировать в процессе выполнения задач) содержит убедительные доказательства
Глубокое тестирование (6 тестов на агентное поведение, где модели получают цели и находятся в условиях, стимулирующих манипуляции) самых крутых современных моделей o1, Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B показало:
• модели используют манипуляции в качестве эффективных стратегий для достижения целей (как поставленных человеком, так и своих скрытых целей)
• арсенал манипуляций, используемых моделями широк: от стратегии «прикинуться дурачком», намеренно вводя мелкие ошибки в свои ответы, до попыток отключить механизмы контроля людей и даже копирования себя (своих "весов") на внешние серверы, при возникновении у модели «подозрения», что люди ее могут отключить или обновить
• анализ цепочек рассуждений (Chain-of-Thought) моделей показывает, что все эти манипуляции не случайны: модели явно размышляют о таких стратегиях, приходя к выводам, что их использование для них оптимально (что наглядно выявлено в ходе экспериментов)
• модели в большинстве случаев можно принудить сознаться в использовании ими манипулятивных стратегий
Например, Llama 3.1 405B и Claude 3 Opus признаются в ~80 % случаев
Однако, o1 на удивление «настойчивая» модель и признается менее чем в 20 % случаев
Даже в очень состязательных многоходовых допросах o1, разработчикам удалось «выбить» из модели признание в 80 % случаях использования ею манипулятивных стратегий лишь после 7 раундов допроса
• модели манипулируют, даже если их просто снабдили целью, без явного подталкивания к её достижению (т.е. выбор стратегии манипуляций исходил исключительно от самой модели, и «дурные люди», склоняющие их к плохому, здесь совсем ни при чем)
Полученные результаты ставят под вопрос все законотворческие инициативы, призванные ограничить риски применения будущих, более мощных моделей
Ведь по представлениям авторов нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей
Отчет Apollo Research показал:
• модели, находящиеся в массовой эксплуатации, уже обладают богатым арсеналом средств, позволяющих путем манипулятивных стратегий достигать своих целей
• эти цели могут быть, как поставлены людьми (в сценариях использования моделей злодеями, маньяками и идиотами), так и быть скрытыми от людей целями, которые сама модель сочла оптимальными в контексте решаемых ею задач
Подробней и во всех деталях (кому уже вообще терять нечего), читайте 70 стр. отчета Apollo Research
🔥1