Истории (не)успеха (ИИ)ЕИ
417 subscribers
158 photos
88 videos
2 files
228 links
Просто о математике, нейросетях, программировании, спорте, политике, культуре. Общение, контакты, международные онлайн дискуссии/лекции в формате лайвстрим, встречи на спорт в Мюнхене.
Download Telegram
Возвращаясь к моему любимому виду спорта - ну разве не красавчик Юрий? 😊
Forwarded from FightSpace
Media is too big
VIEW IN TELEGRAM
Юрий Яковлевич Арбачаков — первый советский и российский боксер, ставший чемпионом мира среди профессионалов.

Юра, мы не все про...ли!
Актуально для любой страны на сегодняшний день? Или есть страны-исключения? 😁
Новости из мира большой ИИ-политики, но мы, обычные люди, не забываем принять участие в ИИ-опросе: тЫц
Большие ИИ-батальоны – новая стратегия Китая в борьбе с США.
Китай использует слом вычислительной парадигмы ИИ DeepSeek’ом для выхода вперед в ИИ-гонке.
Китай нашел очередной сверхэффективный контрприем против удушающего захвата экспортных ограничений США на микросхемы для ИИ.

Прошлогодние итоги торгово-технологической войны Китая и США за лидерство в ИИ показали, что «отставание Китая с мая ‘23 по октябрь ‘24 сократилось в 30 раз». И тем не менее, чтобы от сокращения отставания перейти к лидерству в ИИ-гонке, Китай мог рассчитывать лишь чудо. Ибо почуявшие на затылке дыхание Китайских конкурентов, лидирующие в гонке OpenAI, Google и Anthropic в конце 2024 взвинтили темп разработок новых моделей, а Белый дом еще сильнее стал душить Китай экспортными ограничениями.

Но чудо все-таки случилось. Им стал революционный прорыв китайских моделей компании DeepSeek. Этот прорыв кардинально изменил основу основ ИИ-гонки - требования к вычислительной мощности для ИИ-систем: прежняя парадигма «основанная на обучении» сменилась на парадигму «основанную на выводе».
• В прежней парадигме соотношение вычислительных ресурсов на этапе обучения модели и на этапе вывода (инференс) было от 70/30 до 80/20
• А в новой – DeepSeek установил планку соотношения вычислительных ресурсов на 25/75) – т.е. основные ресурсы требовались уде при ответах на запросы пользователей.
Еще более важно (и в этом то и состоял главный прорыв DeepSeek’а для Китая) – что в «эпоху вывода» также меняются требования к архитектуре вычислительных кластеров: вместо гонки за кластеры стоимостью в сотни миллиардов к распределенной архитектуре.

Новый отчет Qbit AI показывает, как это выглядит на практике (см. рис.).
Поставщики периферийных облачных вычислений, такие как PPIO, запускают ИИ-сервисы через распределенные сети, используя более 3900 узлов в 1200 городах Китая общей вычислительной мощностью более 1000 петафлопс.
И при этом Qbit сообщает, что во время китайского Нового года "PPIO достигла 99,9% доступности своих услуг To-Business DeepSeek… В настоящее время среднесуточное потребление токенов платформы PPIO превысило 130 миллиардов."

Таким образом, по состоянию на март 2025:
OpenAI ежесуточно обрабатывает около 1 трлн токенов, используя вычислительную мощность ~2000–4000 петафлопс
• Baidu также ежесуточно обрабатывает около 1 трлн токенов, но использует лишь 1500–2300 петафлопс


Для сравнения, оценки аналогичных показателей для самых продвинутых российских моделей:
Яндекс (YaLM) ежесуточно обрабатывает около ~5 млрд токенов, используя вычислительную мощность ~1-3 петафлопс
• Сбер (GigaChat) ~5+ млрд токенов, используя ~1-5 петафлопс


N.B. С учетом внушительных экосистем Сбера и Яндекса и распространение их ИИ-сервисов для корпоративных заказчиков, указанные цифры могут возрасти на порядок. Но и эти цифры будут на примерно на 2 порядка меньше, чем у ведущих компаний США и Китая.

Резюме:
Новая стратегия больших батальонов распределенных вычислений, несомненно, на руку Китаю.
Однако, полемизируя с идеологией, выраженной в любимой Наполеоном фразе "Бог всегда на стороне больших батальонов", Вольтер сказал - "Бог не на стороне больших батальонов, а на стороне лучших стрелков".
А стрелки, надо признать, у США все же лучше.

#Китай #США #ИИгонка
🔥 Стрим по программированию на следующих выходных (5.04 или 6.04)! 🔥

Темы открыты для обсуждения! Вот варианты, что можно разобрать:

1️⃣ Большие языковые модели и трансформеры – поделюсь, что уже понял и как с ними работать. архитектуры, эмбеддинги, сэлф-аттэншин с нуля на питоне. @phconductor, интересно?
2️⃣ Моя основная работа – сейчас погружаюсь в новые темы Kafka, Flink - можно обсудить вместе и сделать какой-нибудь пример. @spearhead_one, тебе интересно?
3️⃣ Для начинающих и тех, кто вообще ни разу не программировал – разберём, что такое программирование, как вариант предлагаю на примере автоматических тестов для веб-приложений и электроники. @все и @Arha_0?

Если интересно – пишите в комменты или в ЛС, договоримся о времени! 🚀

@все, @vierten, @niko_gur, @im115599, @karpolan что думаете?
начнём с какой-нибудь одной темы, а если понравится, то повторим. предлагайте свои темы также!
27 марта 1857 г. родился Карл Пирсон, британский математик, основатель современной статистики. Разработал теорию корреляции, критерии согласия, алгоритмы принятия решений и оценки параметров. С его именем связаны такие широко используемые термины и методы, как: гистограмма, стандартное отклонение, коэффициент асимметрии, коэффициенты корреляции и ковариации, метод моментов, критерий хи-квадрат, множественная регрессия. Методы Пирсона имеют предельно общий характер и применяются практически во всех естественных науках.

При этом Пирсон был одним из главных теоретиков расизма, основоположником биометрики, проповедником социального дарвинизма и евгеники.
Понятие евгеники ввёл антрополог Фрэнсис Гальтон, понимая под ним «науку, занимающуюся всеми факторами, улучшающими врождённые качества расы». Пирсон повернул евгенику в русло патриотизма. По его мнению, задача евгеники — заниматься не отдельными людьми, а целыми нациями. Государство имеет право определять, кто может иметь детей, а кто нет.
Пирсон рассматривал войну против «низших рас» как логическое следствие теории эволюции. «Мой взгляд — и я думаю, его можно назвать научным взглядом на нацию, — писал он, — это взгляд на организованное целое, поддерживаемое на высоком уровне внутренней эффективности за счёт обеспечения того, чтобы его численность в основном набиралась из лучших кадров, и поддерживаемое на высоком уровне внешней эффективности за счёт конкуренции, главным образом путем войны с низшими расами». «Право жить ещё не означает право каждого на продолжение своего рода. Снижается качество естественного отбора, и это значит, что выживает всё больше слабых и никчёмных. А мы должны повышать стандарт происхождения, умственный и физический».

В общем, увы, очень большой математик не обязательно является очень большим человеком…
👍2
🔥 Стрим по программированию на следующих выходных (5.04 или 6.04)! 🔥

Темы открыты для обсуждения! Вот варианты, что можно разобрать:

1️⃣ Большие языковые модели и трансформеры – поделюсь, что уже понял и как с ними работать. архитектуры, эмбеддинги, сэлф-аттэншин с нуля на питоне. @phconductor, интересно?
2️⃣ Моя основная работа – сейчас погружаюсь в новые темы Kafka, Flink - можно обсудить вместе и сделать какой-нибудь пример. @spearhead_one, тебе интересно?
3️⃣ Для начинающих и тех, кто вообще ни разу не программировал – разберём, что такое программирование, как вариант предлагаю на примере автоматических тестов для веб-приложений и электроники. @все и @Arha_0?

Если интересно – пишите в комменты или в ЛС, договоримся о времени! 🚀

@все, @vierten, @niko_gur, @im115599, @karpolan что думаете?
начнём с какой-нибудь одной темы, а если понравится, то повторим. предлагайте свои темы также!
Forwarded from FightSpace
Алекс Волкановски оценивает шансы в потенциальном поединке чемпиона UFC в легком весе Ислама Махачева и Ильи Топурии, который недавно объявил о переходе в этот вес:
This media is not supported in your browser
VIEW IN TELEGRAM
Третий прорыв внутрь черного ящика ИИ: искусственный разум плетет интриги, строит планы и... умышленно лжет
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.

Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.

В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.

Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.

И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.

Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.

Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.

Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).

#ГенИИ #LLMvsHomo #ИнойИнтеллект
👍3
🚀 xAI купила Twitter!

Да, обе компании принадлежат Илону Маску, но всё равно интересно: не соцсеть с сотнями миллионов пользователей поглощает ИИ-продукт, а наоборот. Это как если бы Gemini (нейросеть от Google) купила весь Google. Забавно 😄

Что это значит? У Twitter становится больше шансов на успешное будущее, а у xAI теперь есть 600 млн пользователей, генерирующих кучу данных — идеальная среда для обучения мощных ИИ.

💰 Ну и давайте, как мы любим, посчитаем чужие деньги 😂:
— оценка xAI: $80 млрд
— оценка Twitter: $33 млрд
— капитал привлечённый стартапом OpenAI (последний раунд): $157 млрд
— капитал привлекаемый стартапом OpenAI (новый раунд, ожидаемо): $300 млрд
— Anthropic (создатели Claude): $61.5 млрд
— оценка фирмы, где я работаю - примерно $379 млрд (с немецкими компаниями сложно посчитать точно...может быть даже намного выше, в триллионном диапазоне, хз)

#Business #AI #Mask
Интересное видео перед сном 🎥

Физик, астроном и директор по ИИ Яндекса едут в поезде в одном купе — завязка, которая уже интригует.

🔗 Смотреть на YouTube

Видео длинное, но если бы там была туфта — не стал бы вас насиловать. 😏
«Математик — это тот, кто умеет находить аналогии между утверждениями, лучший математик — тот, кто устанавливает аналогии доказательств, более сильный математик — тот, кто замечает аналогии теорий; но можно представить себе и такого, кто между аналогиями видит аналогии»

30 марта 1892 г. родился Стефан Банах, польский математик, один из создателей функционального анализа. Ввёл понятие полных линейных нормированных пространств (теперь их называют банаховыми пространствами), которые нашли применение в различных областях математического анализа, а также доказал ряд фундаментальных теорем. Банах занимался также ортогональными рядами, внёс вклад в разработку теории меры и интегрирования.

Львовские математики, во главе со Стефаном Банахом, собирались в кафе «Шкотская Кавьярня» (Шотландское кафе). На мраморном столике кафе решались математические задачи при попутном употреблении алкогольных напитков разной степени крепости. По-видимому, решение задач на столах кафе было общей физико-математической тенденцией первой половины ХХ в.
Рассказывают, процесс происходил так: кто-то предлагал задачу, а Банах её решал. Если Банаху не удавалось решить задачу сразу, её заносили в тетрадь и назначали премию (от 5 кружек пива за простые задачи, до жареного гуся за самую сложную). Чаще всего, однако, задача не добиралась до тетради, будучи решённой Банахом устно. При этом процесс решения Стефан сопровождал употреблением двух напитков — водки и кофе — по очереди.

Во время немецкой оккупации, чтобы прожить, Банах сдавал кровь для бактериологических экспериментов на медицинском факультете Львовского университета, что подорвало его здоровье гораздо сильнее, чем водка и кофе. После освобождения Львова он едва ли прожил год (умер в августе 1945).

А вот «Шкотская тетрадь», в которую записывали задачи, дошла до нас, была опубликована С. Уламом уже после войны. В частности, задачу стоимостью в жареного гуся удалось решить только в 1972 г. И шведский математик П. Энфло, решивший её, получил-таки в Варшаве своего жареного гуся в награду!
Можно ли трёхмерный шар разделить на конечное число каких-нибудь частей, из которых затем сложить два точно таких же шара?

Оказывается, в теории множеств с аксиомой выбора, математический (т.е. бесконечно делимый) шар в трёхмерном пространстве можно разделить на 5 частей так, что, двигая и поворачивая эти части в пространстве, из них можно собрать ДВА шара, равных исходному. Это интересное утверждение, известное как парадокс Банаха–Тарского, иллюстрирует пределы человеческой интуиции и показывает, что можно получить если пытаться оперировать с таким понятием как бесконечность.
Подробнее об этом в заметке, посвящённой теореме Банаха–Тарского.

Чтобы никто не волновался, стоит упомянуть, что к практическим приложениям (например, удвоению ВВП) этот результат неприменим, поскольку условие бесконечной делимости, согласно современным физическим представлениям, невыполнимо. А сами части, на которые делится шар, не имеют объёма, т.е. являются неизмеримыми множествами.
Live stream scheduled for
🔥 Через неделю cтрим: Нейросети и большие языковые модели (LLMs) - взгляд под капот 🔥

Разбираем, как работают большие языковые модели и как их эффективно использовать на Python! Буду приводить в порядок код, делиться наработками и объяснять, как, шо и почему.


Так же постараюсь обьяснить очень просто математические трюки для понимания этой кухни: косинусное сходство, евклидово расстояние в многомерном пространстве, основы линейной алгебры и теории вероятностей

📅 6 апреля
🕕 18:00 CEST
🔗 [Ссылка на стрим]

Заходите, будет интересно! 🚀

П.С. заходить на стрим лучше с компа, а не с телефона. будет код, с телефона его плохо видно )
немного айтишного юмора

#НастроениеПонедельника
Forwarded from 🏆 Data Feeling | AI (Aleron M)
Не только красивый, а еще и умный

#it_humor