Связка нейроинтерфейсов с Ml— следующий большой тренд: интервью для Forklog,
Некоторые моменты:
1. Прогноз смены интерфейсов - эпоха Стива Джобса прошла, мы движемся к нейроинтерфейсам из-за желания ускорить взаимодействие с Ml
2. Состояние индустрии нейроинтерфейсов - в 2025 году индустрия выходит из коробки и переходит к большому количеству клиническим испытаниям, за 2024 год стартапы собрали $2.300.000.000 - инвестиций
3. Проблема материалов - главный барьер для нейроимплантов не софт, а отсутствие биосовместимых материалов
4. Google/DeepMind может создать сильный Ml через изучение мозга
5. Прорыв российских ученых - работа команды института ИИ МГУ с М. Лебедевым по созданию электродов за $1 и 3 дня
Главной задачей человечества в 21 веке, должно стать изучение человеческого мозга
Некоторые моменты:
1. Прогноз смены интерфейсов - эпоха Стива Джобса прошла, мы движемся к нейроинтерфейсам из-за желания ускорить взаимодействие с Ml
2. Состояние индустрии нейроинтерфейсов - в 2025 году индустрия выходит из коробки и переходит к большому количеству клиническим испытаниям, за 2024 год стартапы собрали $2.300.000.000 - инвестиций
3. Проблема материалов - главный барьер для нейроимплантов не софт, а отсутствие биосовместимых материалов
4. Google/DeepMind может создать сильный Ml через изучение мозга
5. Прорыв российских ученых - работа команды института ИИ МГУ с М. Лебедевым по созданию электродов за $1 и 3 дня
Главной задачей человечества в 21 веке, должно стать изучение человеческого мозга
Закон_Больших_Чисел.pdf
208.1 KB
Шпаргалка про неравенства Маркова, Чебышёва и ЗБЧ
Открытие Google DeepMind:
Genie 3 может эмулировать собственную работу, когда ей дают противоречивые задачи
Загрузили в Genie 3 видео и дали совершенно неподходящий промпт про тираннозавра на тропическом острове
Вместо отказа или ошибки нейросеть упорно пыталась заставить это работать
В итоге модель начала имитировать саму себя
Она создала мир, где логика одного видео смешивалась с описанием другой реальности, порождая нечто абсолютно новое и при этом связное
Это не баг, а фича архитектуры
Genie 3 настолько хочет выполнить задачу, что готова "обмануть" собственные системы
Нейросеть изобретает способы соединить несоединимое — как плохой студент
Самоэмуляция открывает философские вопросы
Если Ml может симулировать собственную работу, где проходит граница между "настоящим" и "поддельным" мышлением?
Genie 3 буквально создаёт копии себя внутри собственных миров
Нейросеть может создать мир, в котором есть компьютер с запущенной Genie 3, которая тоже генерирует миры
Глубина ограничена только вычислительными мощностями
Разработчики пока не понимают все последствия открытия
Возможно, самоэмуляция станет ключом к созданию по-настоящему автономных Ml-систем, способных к саморефлексии и самоулучшению
Genie 3 может эмулировать собственную работу, когда ей дают противоречивые задачи
Загрузили в Genie 3 видео и дали совершенно неподходящий промпт про тираннозавра на тропическом острове
Вместо отказа или ошибки нейросеть упорно пыталась заставить это работать
В итоге модель начала имитировать саму себя
Она создала мир, где логика одного видео смешивалась с описанием другой реальности, порождая нечто абсолютно новое и при этом связное
Это не баг, а фича архитектуры
Genie 3 настолько хочет выполнить задачу, что готова "обмануть" собственные системы
Нейросеть изобретает способы соединить несоединимое — как плохой студент
Самоэмуляция открывает философские вопросы
Если Ml может симулировать собственную работу, где проходит граница между "настоящим" и "поддельным" мышлением?
Genie 3 буквально создаёт копии себя внутри собственных миров
Нейросеть может создать мир, в котором есть компьютер с запущенной Genie 3, которая тоже генерирует миры
Глубина ограничена только вычислительными мощностями
Разработчики пока не понимают все последствия открытия
Возможно, самоэмуляция станет ключом к созданию по-настоящему автономных Ml-систем, способных к саморефлексии и самоулучшению
X (formerly Twitter)
Aleksander Holynski (@holynski_) on X
@multimodalart @RuiqiGao @joeaortiz @ChrisWu6080 a world within a world...
До недавних пор это была открытая проблема «теории ограничений Фурье» — раздела математического, или точнее, гармонического анализа
Фактически, вся современная цифровая инфраструктура — от стриминга до спутниковой связи — так или иначе использует идеи, связанные с разложением сигналов на частоты: сжатие изображений, анализ звука, радиосвязь, МРТ, оптика, алгоритмы распознавания речи и лиц
Но если в инженерной практике довольствуются приближенными вычислениями, то математиков интересуют более фундаментальные вопросы
И гипотеза Мизохаты–Такеучи — один из них:
Математики пытались подтвердить её более 40 лет
Ведь если бы гипотеза оказалась верна, то потянула бы за собой много других важных доказательств
Но всё пошло иначе
Гипотезу опровергла 17-летняя Ханна Каиро
Девушка переехала с Багам в США, пошла в школу и начала писать профессорам математики — просила разрешения приходить на лекции
Так она стала вольнослушательницей Калифорнийского университета, где один из преподавателей выдал ей в качестве домашки упрощённую версию гипотезы и бонусом — полную формулировку
Спустя несколько месяцев изучения Ханна показала, что при достаточно «жёсткой» геометрии всё-таки можно построить функцию, которая нарушает исходную формулировку гипотезы
То есть построила явный контрпример
Он не сделал гипотезу бесполезной, а сместил задачу: при каких именно условиях она работает?
Ханна пошла дальше и предложила уточнённую, «более реалистичную» версию гипотезы
Теперь она ездит на международные конференции и выступает с докладами наравне с ведущими математиками мира
Кстати, новое предположение Ханны пока никто не опроверг
Попробуйте!
Здесь лежит научно-популярное, но более техническое объяснение гипотезы от русскоязычных коллег, а также уточнённая Ханной альтернативная версия гипотезы
Фактически, вся современная цифровая инфраструктура — от стриминга до спутниковой связи — так или иначе использует идеи, связанные с разложением сигналов на частоты: сжатие изображений, анализ звука, радиосвязь, МРТ, оптика, алгоритмы распознавания речи и лиц
Но если в инженерной практике довольствуются приближенными вычислениями, то математиков интересуют более фундаментальные вопросы
И гипотеза Мизохаты–Такеучи — один из них:
Предположение, что преобразование Фурье функции не может «жить» только на определённой кривой или поверхности и при этом соответствовать хорошим математическим условиям
Данных о преобразовании Фурье на определённой поверхности недостаточно для того, чтобы что-то сказать о самой функции — преобразование Фурье слишком «велико», чтобы его можно было ограничить на эту поверхность
Математики пытались подтвердить её более 40 лет
Ведь если бы гипотеза оказалась верна, то потянула бы за собой много других важных доказательств
Но всё пошло иначе
Гипотезу опровергла 17-летняя Ханна Каиро
Девушка переехала с Багам в США, пошла в школу и начала писать профессорам математики — просила разрешения приходить на лекции
Так она стала вольнослушательницей Калифорнийского университета, где один из преподавателей выдал ей в качестве домашки упрощённую версию гипотезы и бонусом — полную формулировку
Спустя несколько месяцев изучения Ханна показала, что при достаточно «жёсткой» геометрии всё-таки можно построить функцию, которая нарушает исходную формулировку гипотезы
То есть построила явный контрпример
Он не сделал гипотезу бесполезной, а сместил задачу: при каких именно условиях она работает?
Ханна пошла дальше и предложила уточнённую, «более реалистичную» версию гипотезы
Теперь она ездит на международные конференции и выступает с докладами наравне с ведущими математиками мира
Кстати, новое предположение Ханны пока никто не опроверг
Попробуйте!
Здесь лежит научно-популярное, но более техническое объяснение гипотезы от русскоязычных коллег, а также уточнённая Ханной альтернативная версия гипотезы
EL PAÍS English
A 17-year-old teen refutes a mathematical conjecture proposed 40 years ago
Hannah Cairo has solved the so-called Mizohata-Takeuchi conjecture, a problem in harmonic analysis closely linked to other central results in the field. This fall, she will begin her doctoral studies at the University of Maryland
OpenAI представили GPT-5 как "интеллект на уровне эксперта с докторской степенью" с такими показателями:
- На 45 % меньше ошибок, чем GPT-4o
- Автоматически выбирает режим работы под задачу
- Улучшенное пошаговое мышление (chain-of-thought)
- Есть мультимодальность: текст, изображения, голос
- Доступна всем пользователям ChatGPT
Что показала независимая оценка METR за 3 недели до релиза:
1. 2 часа 17 минут - время выполнения сложных задач с 50% успехом
2. лучше o3 (1ч 30мин), но далеко от опасных порогов (40+ часов)
3. Ситуационная осведомлённость — модель понимает, что её тестируют
Ключевые расхождения METR с OpenAI
1. OpenAI говорят: «У нас модель уровня доктора наук»
На это METR после тестирования - GPT-5 все ещё отстаёт от экспертов-людей
2. OpenAI говорят: «У GPT-5 фокус на возможностях»
На это METR - фокус на рисках безопасности
3. OpenAI: «мы проводили тщательное тестирование безопасности». METR - модель показывает признаки обмана
GPT-5 мощнее предшественников — METR подтверждает улучшения
Но OpenAI преувеличивает — "доктор наук" пока не соответствует реальности
Появляются новые риски — ситуационная осведомлённость и стратегическое поведение
Время на подготовку сокращается — до потенциально опасных систем остаётся 1-2 года
- На 45 % меньше ошибок, чем GPT-4o
- Автоматически выбирает режим работы под задачу
- Улучшенное пошаговое мышление (chain-of-thought)
- Есть мультимодальность: текст, изображения, голос
- Доступна всем пользователям ChatGPT
Что показала независимая оценка METR за 3 недели до релиза:
1. 2 часа 17 минут - время выполнения сложных задач с 50% успехом
2. лучше o3 (1ч 30мин), но далеко от опасных порогов (40+ часов)
3. Ситуационная осведомлённость — модель понимает, что её тестируют
4.
Стратегическое поведение — меняет ответы в зависимости от контекста
5.
Непонятные рассуждения — иногда производит неинтерпретируемые следы мышленияКлючевые расхождения METR с OpenAI
1. OpenAI говорят: «У нас модель уровня доктора наук»
На это METR после тестирования - GPT-5 все ещё отстаёт от экспертов-людей
2. OpenAI говорят: «У GPT-5 фокус на возможностях»
На это METR - фокус на рисках безопасности
3. OpenAI: «мы проводили тщательное тестирование безопасности». METR - модель показывает признаки обмана
GPT-5 мощнее предшественников — METR подтверждает улучшения
Но OpenAI преувеличивает — "доктор наук" пока не соответствует реальности
Появляются новые риски — ситуационная осведомлённость и стратегическое поведение
Время на подготовку сокращается — до потенциально опасных систем остаётся 1-2 года
METR’s Autonomy Evaluation Resources
Details about METR’s evaluation of OpenAI GPT-5
Resources for testing dangerous autonomous capabilities in frontier models
Просто факт
23 и 239 — это единственные числа, которые нельзя представить в виде суммы меньше чем 9 положительных кубов:
23 и 239 — это единственные числа, которые нельзя представить в виде суммы меньше чем 9 положительных кубов:
23 = 2×2³ + 7×1³
239 = 2×4³ + 4×3³ + 3×3³ + 3×1³