85 subscribers
24 photos
1 video
19 files
208 links
Machine learning
Download Telegram
МАТЕМАТИЧЕСКИЙ_АНАЛИЗ_для_школьников.pdf
448.6 KB
Методическое пособие по математическому анализу для школьников

Пособие отличается от классических подходов к матанализу тем, что оно полностью избегает традиционного, сложного для школьников формального определения предела, заменяя его интуитивно понятным аппаратом дифференциалов и акцентом на вычислительные алгоритмы

Главная его особенность - построение всего курса на основе практического, "алгоритмического" определения действительных чисел и производной

Это делает теорию доступной и тесно связывает её с физическими и геометрическими приложениями
Вроде бы (высшая) гомотопическая ассоциативность и (высшая) гомотопическая коммутативность (умножения где-нибудь) — скорее независимые вещи

Они и кодируются немного разной комбинаторикой: ассоциэдрами vs пермутоэдрами (оба многогранника — частный случай граф-ассоциэдра; обычный ассоциэдр соответствует графу-цепочке, а пермутоэдр — полному графу)

Но есть вот какая связь
Логично, что морфизмы в категории гомотопически ассоциативных колец — это "гомотопические гомоморфизмы"* (то есть для объектов свойство (a*b)*c=a*(b*c) выполнено с точностью до гомотопии, а для морфизмов свойство f(a*b)=f(a)*f(b) выполнено с точностью до гомотопии)

С другой стороны, кольцо R коммутативно тогда и только тогда, когда отображение умножения R⊗R->R является гомоморфизмом колец

Вот и "описали гомотопическую коммутативность объекта через гомотопическую ассоциативность морфизма"

*можно, кстати, рассматривать категорию строго ассоциативных колец и "гомотопических гомоморфизмов" (если правильно помню, примерно об этом категория DASH Манкхольма: differential algebras + strongly homotopy multiplicative maps
Сейчас вместо "shm map" мы говорим "A_∞-морфизм")
Машинное обучение (Ml) сокращает время обучения, но ослабляет критическое мышление

Эксперимент в HIT показывает, что студенты учатся с помощью Ml так же эффективно, как и с живыми преподавателями, однако излишняя зависимость может негативно сказаться на успеваемости

Факультет образовательных технологий Холонского технологического института (HIT) представил свое исследование на конференции Calcalist AI, проведенной совместно с Vultr, на тему, может ли Ml заменить лектора-человека

«Мы сосредоточились на трёх основных вопросах

Во-первых, если студенты учатся с помощью Ml вместо традиционного преподавателя, есть ли разница в их достижениях?

Во-вторых, как Ml влияет на эффективность процесса обучения?

В-третьих, есть ли связь между частотой использования Ml и успеваемостью студентов?»

https://www.calcalistech.com/ctechnews/article/r680lt05p
💯1
Знак бесконечности (∞) лемниската, от латинского "lēmniscātus" ("украшенный лентами, бантик"), от слова "lēmniscus" ("лента"), от греческого λημνῐ́σκος [lēmnĭ́skos] с тем же значением

Может пригодиться, если вам нужно будет впечатлить на свидании математичку, будучи гуманитарием

(это ж каким нужно быть душнилой, чтобы на свидании обсуждать лемнискату)
2😁2
Если бы все люди на Земле перетасовали колоду карт, вероятность того, что любые две карты легли бы в одинаковом порядке, составила бы менее 0,00000000000000000000000000000000000000000000008 %
В 1964 году появилась статья с названием, которое выглядит почти как шутка: «H = W»

На первый взгляд — всего лишь равенство двух букв
Но за ним скрывается фундаментальный результат для математики XX века

Дело в том, что в середине прошлого века активно развивалась теория дифференциальных уравнений. Классическая математика оперировала только «гладкими» функциями — теми, у которых есть производные в привычном смысле
Но очень часто в задачах встречаются функции, которые ведут себя плохо: у них есть разрывы, изломы, углы
На таких функциях классическая производная перестаёт существовать. Казалось бы, тупик

Но в 30–40-е годы возникла идея рассматривать обобщённые производные
Она позволяет придавать смысл производным даже там, где обычного дифференцирования нет. Классический пример — функция 𝑓(𝑥)=∣𝑥∣
В нуле она не имеет производной, но в обобщённом смысле её производная существует и равна функции «sgn(x)»

Чтобы работать с такими объектами, математики ввели специальные пространства функций — пространства Соболева
Но оказалось, что можно подойти к их определению как минимум двумя путями

В одном случае берут замыкание «хороших» функций в специальной норме — это обозначали буквой H

В другом — сразу требуют, чтобы функция и её обобщённые производные принадлежали определённому пространству 𝐿𝑝, и это называли W

Эти два определения выглядели похожими, но не было очевидно, что они действительно дают одно и то же

И вот в 1964 году Джеймс Серрин и Нормэл Джордж Мейерс опубликовали работу, в которой доказали: для любых областей, любого порядка производных и любого показателя интегрируемости два подхода эквивалентны

То есть H и W — это одно и то же

Доказательство заняло меньше страницы

Почему это оказалось таким важным?
Потому что в исследованиях дифференциальных уравнений стало возможным свободно переходить от одного подхода к другому
Одни математики удобнее формулировали задачи через H, другие через W, и теперь было ясно, что они говорят об одном и том же объекте

Это аналогично тому, как если бы мы сначала доказали, что алгебраическое уравнение имеет комплексное решение, а затем доказали бы, что это комплексное решение является действительным, или доказали бы, что уравнение имеет действительное числовое решение, а затем доказали бы, что это действительное числовое решение на самом деле является целым

Проще сначала найти решение в более широком пространстве, а затем, если возможно, показать, что найденное вами решение принадлежит более узкому пространству
👍1
К началу нового учебного года переиздана книжка Р.К. Гордина "Теоремы и задачи школьной геометрии
Базовый и профильный уровни" с красивыми геометрическими картинками

В этой книге в форме серии задач излагается практически вся элементарная геометрия
Книга состоит из двух частей: первую можно считать базовым курсом геометрии, содержащим наиболее известные и часто используемые теоремы; во второй приводятся малоизвестные, но красивые факты

https://biblio.mccme.ru/node/300684

Рафаил Калманович Гордин работает в 57 школе Москвы уже 50 лет
Каталог каталогов по ML

1.
Мини-проекты по машинному обучению с Python
Небольшие проекты для понимания основных концепций
Создание моделей машинного обучения с Scikit-learn для регрессии и классификации

2. Анализ данных и библиотека проектов машинного обучения
Учебные материалы, код и наборы данных для проектов анализа данных и машинного обучения

3.
Идеи для проектов машинного обучения
Идеи проектов: машинное обучение, НЛП, компьютерное зрение, рекомендательные системы

4.
500+ проектов машинного обучения и ИИ с кодом
500+ реальных проектов: машинное обучение, глубокое обучение, компьютерное зрение

5.
Проекты дегенеративного Ml
Современные проекты и сервисы генеративного Ml
Инструменты для генерации текста, изображений, аудио, видео

6.
Инструменты и проекты LangChain
Инструменты и проекты с фреймворком LangChain для приложений на основе больших языковых моделей и Ml-агентов

7.
Решения Kaggle
Решения и идеи соревнований Kaggle
Лучшие подходы к решению задач машинного обучения

8.
Топ проектов глубокого обучения на GitHub
Популярные проекты глубокого обучения, ранжированные по количеству звезд
Фреймворки, инструменты и ресурсы

9.
Справочник по машинному обучению
Ссылки, учебные материалы и ресурсы по машинному обучению и глубокому обучению

10.
Ресурсы глубокого обучения
Учебники, проекты, книги и сообщества по глубокому обучению
Нейронные сети, обучение с подкреплением, исследования Ml

Обычно такое не люблю, но тут реально собраны тысячи полезных ссылок
Тут и обучение и фреймворки и инструменты.
Все что может пригодиться в мире Ml
Подборки курируемые с десятками, а иногда и сотнями контрибьюторов

И всё бесплатно
Лет на 5 обучения хватит