МАТЕМАТИЧЕСКИЙ_АНАЛИЗ_для_школьников.pdf
448.6 KB
Методическое пособие по математическому анализу для школьников
Пособие отличается от классических подходов к матанализу тем, что оно полностью избегает традиционного, сложного для школьников формального определения предела, заменяя его интуитивно понятным аппаратом дифференциалов и акцентом на вычислительные алгоритмы
Главная его особенность - построение всего курса на основе практического, "алгоритмического" определения действительных чисел и производной
Это делает теорию доступной и тесно связывает её с физическими и геометрическими приложениями
Пособие отличается от классических подходов к матанализу тем, что оно полностью избегает традиционного, сложного для школьников формального определения предела, заменяя его интуитивно понятным аппаратом дифференциалов и акцентом на вычислительные алгоритмы
Главная его особенность - построение всего курса на основе практического, "алгоритмического" определения действительных чисел и производной
Это делает теорию доступной и тесно связывает её с физическими и геометрическими приложениями
Вроде бы (высшая) гомотопическая ассоциативность и (высшая) гомотопическая коммутативность (умножения где-нибудь) — скорее независимые вещи
Они и кодируются немного разной комбинаторикой: ассоциэдрами vs пермутоэдрами (оба многогранника — частный случай граф-ассоциэдра; обычный ассоциэдр соответствует графу-цепочке, а пермутоэдр — полному графу)
Но есть вот какая связь
Логично, что морфизмы в категории гомотопически ассоциативных колец — это "гомотопические гомоморфизмы"* (то есть для объектов свойство (a*b)*c=a*(b*c) выполнено с точностью до гомотопии, а для морфизмов свойство f(a*b)=f(a)*f(b) выполнено с точностью до гомотопии)
С другой стороны, кольцо R коммутативно тогда и только тогда, когда отображение умножения R⊗R->R является гомоморфизмом колец
Вот и "описали гомотопическую коммутативность объекта через гомотопическую ассоциативность морфизма"
*можно, кстати, рассматривать категорию строго ассоциативных колец и "гомотопических гомоморфизмов" (если правильно помню, примерно об этом категория DASH Манкхольма: differential algebras + strongly homotopy multiplicative maps
Сейчас вместо "shm map" мы говорим "A_∞-морфизм")
Они и кодируются немного разной комбинаторикой: ассоциэдрами vs пермутоэдрами (оба многогранника — частный случай граф-ассоциэдра; обычный ассоциэдр соответствует графу-цепочке, а пермутоэдр — полному графу)
Но есть вот какая связь
Логично, что морфизмы в категории гомотопически ассоциативных колец — это "гомотопические гомоморфизмы"* (то есть для объектов свойство (a*b)*c=a*(b*c) выполнено с точностью до гомотопии, а для морфизмов свойство f(a*b)=f(a)*f(b) выполнено с точностью до гомотопии)
С другой стороны, кольцо R коммутативно тогда и только тогда, когда отображение умножения R⊗R->R является гомоморфизмом колец
Вот и "описали гомотопическую коммутативность объекта через гомотопическую ассоциативность морфизма"
*можно, кстати, рассматривать категорию строго ассоциативных колец и "гомотопических гомоморфизмов" (если правильно помню, примерно об этом категория DASH Манкхольма: differential algebras + strongly homotopy multiplicative maps
Сейчас вместо "shm map" мы говорим "A_∞-морфизм")
Машинное обучение (Ml) сокращает время обучения, но ослабляет критическое мышление
Эксперимент в HIT показывает, что студенты учатся с помощью Ml так же эффективно, как и с живыми преподавателями, однако излишняя зависимость может негативно сказаться на успеваемости
Факультет образовательных технологий Холонского технологического института (HIT) представил свое исследование на конференции Calcalist AI, проведенной совместно с Vultr, на тему, может ли Ml заменить лектора-человека
«Мы сосредоточились на трёх основных вопросах
Во-первых, если студенты учатся с помощью Ml вместо традиционного преподавателя, есть ли разница в их достижениях?
Во-вторых, как Ml влияет на эффективность процесса обучения?
В-третьих, есть ли связь между частотой использования Ml и успеваемостью студентов?»
https://www.calcalistech.com/ctechnews/article/r680lt05p
Эксперимент в HIT показывает, что студенты учатся с помощью Ml так же эффективно, как и с живыми преподавателями, однако излишняя зависимость может негативно сказаться на успеваемости
Факультет образовательных технологий Холонского технологического института (HIT) представил свое исследование на конференции Calcalist AI, проведенной совместно с Vultr, на тему, может ли Ml заменить лектора-человека
«Мы сосредоточились на трёх основных вопросах
Во-первых, если студенты учатся с помощью Ml вместо традиционного преподавателя, есть ли разница в их достижениях?
Во-вторых, как Ml влияет на эффективность процесса обучения?
В-третьих, есть ли связь между частотой использования Ml и успеваемостью студентов?»
https://www.calcalistech.com/ctechnews/article/r680lt05p
ctech
AI cuts study time but weakens critical thinking, research finds
Dr. Meital Amzaleg’s experiment at HIT shows students learn as effectively with AI as with human lecturers, but overreliance may harm performance.
💯1
Знак бесконечности (∞) лемниската, от латинского "lēmniscātus" ("украшенный лентами, бантик"), от слова "lēmniscus" ("лента"), от греческого λημνῐ́σκος [lēmnĭ́skos] с тем же значением
Может пригодиться, если вам нужно будет впечатлить на свидании математичку, будучи гуманитарием
(это ж каким нужно быть душнилой, чтобы на свидании обсуждать лемнискату)
Может пригодиться, если вам нужно будет впечатлить на свидании математичку, будучи гуманитарием
(это ж каким нужно быть душнилой, чтобы на свидании обсуждать лемнискату)
✍2😁2
В 1964 году появилась статья с названием, которое выглядит почти как шутка: «H = W»
На первый взгляд — всего лишь равенство двух букв
Но за ним скрывается фундаментальный результат для математики XX века
Дело в том, что в середине прошлого века активно развивалась теория дифференциальных уравнений. Классическая математика оперировала только «гладкими» функциями — теми, у которых есть производные в привычном смысле
Но очень часто в задачах встречаются функции, которые ведут себя плохо: у них есть разрывы, изломы, углы
На таких функциях классическая производная перестаёт существовать. Казалось бы, тупик
Но в 30–40-е годы возникла идея рассматривать обобщённые производные
Она позволяет придавать смысл производным даже там, где обычного дифференцирования нет. Классический пример — функция 𝑓(𝑥)=∣𝑥∣
В нуле она не имеет производной, но в обобщённом смысле её производная существует и равна функции «sgn(x)»
Чтобы работать с такими объектами, математики ввели специальные пространства функций — пространства Соболева
Но оказалось, что можно подойти к их определению как минимум двумя путями
В одном случае берут замыкание «хороших» функций в специальной норме — это обозначали буквой H
В другом — сразу требуют, чтобы функция и её обобщённые производные принадлежали определённому пространству 𝐿𝑝, и это называли W
Эти два определения выглядели похожими, но не было очевидно, что они действительно дают одно и то же
И вот в 1964 году Джеймс Серрин и Нормэл Джордж Мейерс опубликовали работу, в которой доказали: для любых областей, любого порядка производных и любого показателя интегрируемости два подхода эквивалентны
То есть H и W — это одно и то же
Доказательство заняло меньше страницы
Почему это оказалось таким важным?
Потому что в исследованиях дифференциальных уравнений стало возможным свободно переходить от одного подхода к другому
Одни математики удобнее формулировали задачи через H, другие через W, и теперь было ясно, что они говорят об одном и том же объекте
Это аналогично тому, как если бы мы сначала доказали, что алгебраическое уравнение имеет комплексное решение, а затем доказали бы, что это комплексное решение является действительным, или доказали бы, что уравнение имеет действительное числовое решение, а затем доказали бы, что это действительное числовое решение на самом деле является целым
Проще сначала найти решение в более широком пространстве, а затем, если возможно, показать, что найденное вами решение принадлежит более узкому пространству
На первый взгляд — всего лишь равенство двух букв
Но за ним скрывается фундаментальный результат для математики XX века
Дело в том, что в середине прошлого века активно развивалась теория дифференциальных уравнений. Классическая математика оперировала только «гладкими» функциями — теми, у которых есть производные в привычном смысле
Но очень часто в задачах встречаются функции, которые ведут себя плохо: у них есть разрывы, изломы, углы
На таких функциях классическая производная перестаёт существовать. Казалось бы, тупик
Но в 30–40-е годы возникла идея рассматривать обобщённые производные
Она позволяет придавать смысл производным даже там, где обычного дифференцирования нет. Классический пример — функция 𝑓(𝑥)=∣𝑥∣
В нуле она не имеет производной, но в обобщённом смысле её производная существует и равна функции «sgn(x)»
Чтобы работать с такими объектами, математики ввели специальные пространства функций — пространства Соболева
Но оказалось, что можно подойти к их определению как минимум двумя путями
В одном случае берут замыкание «хороших» функций в специальной норме — это обозначали буквой H
В другом — сразу требуют, чтобы функция и её обобщённые производные принадлежали определённому пространству 𝐿𝑝, и это называли W
Эти два определения выглядели похожими, но не было очевидно, что они действительно дают одно и то же
И вот в 1964 году Джеймс Серрин и Нормэл Джордж Мейерс опубликовали работу, в которой доказали: для любых областей, любого порядка производных и любого показателя интегрируемости два подхода эквивалентны
То есть H и W — это одно и то же
Доказательство заняло меньше страницы
Почему это оказалось таким важным?
Потому что в исследованиях дифференциальных уравнений стало возможным свободно переходить от одного подхода к другому
Одни математики удобнее формулировали задачи через H, другие через W, и теперь было ясно, что они говорят об одном и том же объекте
Это аналогично тому, как если бы мы сначала доказали, что алгебраическое уравнение имеет комплексное решение, а затем доказали бы, что это комплексное решение является действительным, или доказали бы, что уравнение имеет действительное числовое решение, а затем доказали бы, что это действительное числовое решение на самом деле является целым
Проще сначала найти решение в более широком пространстве, а затем, если возможно, показать, что найденное вами решение принадлежит более узкому пространству
👍1
К началу нового учебного года переиздана книжка Р.К. Гордина "Теоремы и задачи школьной геометрии
Базовый и профильный уровни" с красивыми геометрическими картинками
В этой книге в форме серии задач излагается практически вся элементарная геометрия
Книга состоит из двух частей: первую можно считать базовым курсом геометрии, содержащим наиболее известные и часто используемые теоремы; во второй приводятся малоизвестные, но красивые факты
https://biblio.mccme.ru/node/300684
Рафаил Калманович Гордин работает в 57 школе Москвы уже 50 лет
Базовый и профильный уровни" с красивыми геометрическими картинками
В этой книге в форме серии задач излагается практически вся элементарная геометрия
Книга состоит из двух частей: первую можно считать базовым курсом геометрии, содержащим наиболее известные и часто используемые теоремы; во второй приводятся малоизвестные, но красивые факты
https://biblio.mccme.ru/node/300684
Рафаил Калманович Гордин работает в 57 школе Москвы уже 50 лет
Каталог каталогов по ML
1. Мини-проекты по машинному обучению с Python
Небольшие проекты для понимания основных концепций
Создание моделей машинного обучения с Scikit-learn для регрессии и классификации
2. Анализ данных и библиотека проектов машинного обучения
Учебные материалы, код и наборы данных для проектов анализа данных и машинного обучения
3. Идеи для проектов машинного обучения
Идеи проектов: машинное обучение, НЛП, компьютерное зрение, рекомендательные системы
4. 500+ проектов машинного обучения и ИИ с кодом
500+ реальных проектов: машинное обучение, глубокое обучение, компьютерное зрение
5. Проекты дегенеративного Ml
Современные проекты и сервисы генеративного Ml
Инструменты для генерации текста, изображений, аудио, видео
6. Инструменты и проекты LangChain
Инструменты и проекты с фреймворком LangChain для приложений на основе больших языковых моделей и Ml-агентов
7. Решения Kaggle
Решения и идеи соревнований Kaggle
Лучшие подходы к решению задач машинного обучения
8. Топ проектов глубокого обучения на GitHub
Популярные проекты глубокого обучения, ранжированные по количеству звезд
Фреймворки, инструменты и ресурсы
9. Справочник по машинному обучению
Ссылки, учебные материалы и ресурсы по машинному обучению и глубокому обучению
10. Ресурсы глубокого обучения
Учебники, проекты, книги и сообщества по глубокому обучению
Нейронные сети, обучение с подкреплением, исследования Ml
Обычно такое не люблю, но тут реально собраны тысячи полезных ссылок
Тут и обучение и фреймворки и инструменты.
Все что может пригодиться в мире Ml
Подборки курируемые с десятками, а иногда и сотнями контрибьюторов
И всё бесплатно
Лет на 5 обучения хватит
1. Мини-проекты по машинному обучению с Python
Небольшие проекты для понимания основных концепций
Создание моделей машинного обучения с Scikit-learn для регрессии и классификации
2. Анализ данных и библиотека проектов машинного обучения
Учебные материалы, код и наборы данных для проектов анализа данных и машинного обучения
3. Идеи для проектов машинного обучения
Идеи проектов: машинное обучение, НЛП, компьютерное зрение, рекомендательные системы
4. 500+ проектов машинного обучения и ИИ с кодом
500+ реальных проектов: машинное обучение, глубокое обучение, компьютерное зрение
5. Проекты дегенеративного Ml
Современные проекты и сервисы генеративного Ml
Инструменты для генерации текста, изображений, аудио, видео
6. Инструменты и проекты LangChain
Инструменты и проекты с фреймворком LangChain для приложений на основе больших языковых моделей и Ml-агентов
7. Решения Kaggle
Решения и идеи соревнований Kaggle
Лучшие подходы к решению задач машинного обучения
8. Топ проектов глубокого обучения на GitHub
Популярные проекты глубокого обучения, ранжированные по количеству звезд
Фреймворки, инструменты и ресурсы
9. Справочник по машинному обучению
Ссылки, учебные материалы и ресурсы по машинному обучению и глубокому обучению
10. Ресурсы глубокого обучения
Учебники, проекты, книги и сообщества по глубокому обучению
Нейронные сети, обучение с подкреплением, исследования Ml
Обычно такое не люблю, но тут реально собраны тысячи полезных ссылок
Тут и обучение и фреймворки и инструменты.
Все что может пригодиться в мире Ml
Подборки курируемые с десятками, а иногда и сотнями контрибьюторов
И всё бесплатно
Лет на 5 обучения хватит
GitHub
GitHub - devAmoghS/Machine-Learning-with-Python: Small scale machine learning projects to understand the core concepts . Give a…
Small scale machine learning projects to understand the core concepts . Give a Star 🌟If it helps you. BONUS: Interview Bank coming up..! - devAmoghS/Machine-Learning-with-Python