Кстати, для жителей Мюнхена представляется уникальный шанс в январе сойтись на одной площадке со звездами науки и спорта. Площадка, в этот раз баскетбольная, но играть против или за вас будут:
1) Доктор физматнаук и мастер спорта по боксу Дмытро
2) Лучшие бэкеры из Циглер Бэкерай
Мы планируем сюрприз - там будут скорее всего «величайшие» немецкие политики и им будет задан вопрос - почему у нас все так плохо?! Может потому что они в кольцо попасть не могут?
1) Доктор физматнаук и мастер спорта по боксу Дмытро
2) Лучшие бэкеры из Циглер Бэкерай
Мы планируем сюрприз - там будут скорее всего «величайшие» немецкие политики и им будет задан вопрос - почему у нас все так плохо?! Может потому что они в кольцо попасть не могут?
🏀✨ ВНИМАНИЕ, БАСКЕТБОЛЬНЫЕ ФАНАТЫ! ✨🏀
Самая крутая игра только что начавшегося года приближается! 🔥
📅 Ориентировочные даты: выходные 1-2 февраля
📍 Место: Сименспарк, Мюнхен
Требования к участникам:
👉 Никаких, кроме желания побегать и посмеяться! 😄
👉 Форма одежды — любая, хоть пижама, главное, чтобы вам было удобно!
👉 Умения играть в баскетбол? Забудьте об этом! Главное — настроение и желание повеселиться! 🎉
💬 Если вы из Мюнхена и хотите прийти:
Напишите в комментариях,готовы ли присоединиться.
Это поможет мне учесть ваши пожелания при финальном согласовании! на выходные какой именно недели играем! кто-то может заболеть, кто-то может по другим причинам не быть в состоянии прийти. Пишите кто реально хочет прийти - всё учтём и подгадаем так, чтобы все могли поучaствовать.
⚠️ Дисклеймер: Всё ещё обсуждается, но если кто-то очень хочет, а эти даты совсем не подходят — не стесняйтесь, пишите! Мы найдём другие дни, чтобы все желающие смогли присоединиться! 💪😊
Давайте сделаем это событие незабываемым вместе! 🏀🔥
📲 Жду ваших комментариев! 👇
Самая крутая игра только что начавшегося года приближается! 🔥
📅 Ориентировочные даты: выходные 1-2 февраля
📍 Место: Сименспарк, Мюнхен
Требования к участникам:
👉 Никаких, кроме желания побегать и посмеяться! 😄
👉 Форма одежды — любая, хоть пижама, главное, чтобы вам было удобно!
👉 Умения играть в баскетбол? Забудьте об этом! Главное — настроение и желание повеселиться! 🎉
💬 Если вы из Мюнхена и хотите прийти:
Напишите в комментариях,готовы ли присоединиться.
Это поможет мне учесть ваши пожелания при финальном согласовании! на выходные какой именно недели играем! кто-то может заболеть, кто-то может по другим причинам не быть в состоянии прийти. Пишите кто реально хочет прийти - всё учтём и подгадаем так, чтобы все могли поучaствовать.
⚠️ Дисклеймер: Всё ещё обсуждается, но если кто-то очень хочет, а эти даты совсем не подходят — не стесняйтесь, пишите! Мы найдём другие дни, чтобы все желающие смогли присоединиться! 💪😊
Давайте сделаем это событие незабываемым вместе! 🏀🔥
📲 Жду ваших комментариев! 👇
Научпоп: как превращают сложное в простое (и чем я страдаю на выходных)
Провожу уже какие свои выходные, пытаясь перевести теории вычислений и работы языковых моделей с уровня “для специалистов” на уровень “понятно и интересно всем”. Добро пожаловать в мой личный мир научпопа! 😅
Научпоп — это искусство балансировать ⚖️. С одной стороны, ты хочешь, чтобы твой текст могли понять все: от школьника до инженера, от гуманитария до математика. С другой стороны, ты не хочешь упростить настолько, чтобы потерялась суть или возникли неверные представления. И вот где настоящая сложность: как говорить просто, но не примитивно?
Чем я страдаю сейчас
На данный момент я готовлю две статьи. Это проекты, которые забрали всё моё свободное время (и немного сна 😴), но при этом жутко увлекательны.
1. Теория вычислимости и сложности вычислений
Это, по сути, попытка объяснить, как мы можем понять, что вообще способен решить компьютер, а что — нет. Например, почему есть задачи, которые теоретически можно решить, но на это уйдут миллионы лет ⌛. Или почему, даже если у вас самый мощный суперкомпьютер 💻, некоторые проблемы остаются “неподъёмными”. На пальцах: представьте, что вы ищете иголку в стоге сена, но ваш “стог” — размером с галактику. 🌌
Этой темы еще не было в этом чате, но на самом деле это тема моего PhD и я тут разбираюсь )
2. Крэш-курс по большим языковым моделям
Вторая статья — это то, где я абсолютно не разбираюсь, но я учусь - это путешествие от основ статистики до современных языковых моделей, вроде ChatGPT. Как из “простых” слов получилось создать систему, которая понимает контекст, отвечает на вопросы и пишет статьи? ✍️ Я разберу всё: от теории вероятностей, которая помогает предсказывать слово за словом, до глубоких нейронных сетей 🤖 и того, как они вообще учатся. И да, будет код, с которым можно будет поиграться. Потому что одно дело — читать, а другое — увидеть, как это работает “под капотом”.
Почему это сложно
Моими читателями могут быть как люди, которые далеки от программирования и математики, так и те, кто в этих областях “зарыт” по самую макушку. Первым надо объяснить основы, но так, чтобы они не заскучали 🥱. Вторым — показать нюансы, не перегружая формулами 📊.
А ещё есть ловушка: слишком просто — и будет похоже на сказку. Слишком сложно — потеряется магия научпопа ✨. Поэтому каждое предложение в этих статьях — это баланс, а каждый абзац проверяется и переписывается по нескольку раз 🔄.
Что дальше
Научпоп для меня — это способ делиться своими знаниями и раздвигать границы 🧠. Если хотя бы один человек, далекий от науки, поймёт, как устроены вычисления или языковые модели, я буду считать, что всё это не зря.
Ну а пока мои выходные проходят с кучей заметок 📓, табличек 📋 и кода 💾. Пожелайте мне удачи! 🍀 А если у вас есть идеи, про что ещё можно написать в таком формате, обязательно делитесь в комментариях. Кто знает, может, ваш вопрос станет темой следующей статьи? 😊
Провожу уже какие свои выходные, пытаясь перевести теории вычислений и работы языковых моделей с уровня “для специалистов” на уровень “понятно и интересно всем”. Добро пожаловать в мой личный мир научпопа! 😅
Научпоп — это искусство балансировать ⚖️. С одной стороны, ты хочешь, чтобы твой текст могли понять все: от школьника до инженера, от гуманитария до математика. С другой стороны, ты не хочешь упростить настолько, чтобы потерялась суть или возникли неверные представления. И вот где настоящая сложность: как говорить просто, но не примитивно?
Чем я страдаю сейчас
На данный момент я готовлю две статьи. Это проекты, которые забрали всё моё свободное время (и немного сна 😴), но при этом жутко увлекательны.
1. Теория вычислимости и сложности вычислений
Это, по сути, попытка объяснить, как мы можем понять, что вообще способен решить компьютер, а что — нет. Например, почему есть задачи, которые теоретически можно решить, но на это уйдут миллионы лет ⌛. Или почему, даже если у вас самый мощный суперкомпьютер 💻, некоторые проблемы остаются “неподъёмными”. На пальцах: представьте, что вы ищете иголку в стоге сена, но ваш “стог” — размером с галактику. 🌌
Этой темы еще не было в этом чате, но на самом деле это тема моего PhD и я тут разбираюсь )
2. Крэш-курс по большим языковым моделям
Вторая статья — это то, где я абсолютно не разбираюсь, но я учусь - это путешествие от основ статистики до современных языковых моделей, вроде ChatGPT. Как из “простых” слов получилось создать систему, которая понимает контекст, отвечает на вопросы и пишет статьи? ✍️ Я разберу всё: от теории вероятностей, которая помогает предсказывать слово за словом, до глубоких нейронных сетей 🤖 и того, как они вообще учатся. И да, будет код, с которым можно будет поиграться. Потому что одно дело — читать, а другое — увидеть, как это работает “под капотом”.
Почему это сложно
Моими читателями могут быть как люди, которые далеки от программирования и математики, так и те, кто в этих областях “зарыт” по самую макушку. Первым надо объяснить основы, но так, чтобы они не заскучали 🥱. Вторым — показать нюансы, не перегружая формулами 📊.
А ещё есть ловушка: слишком просто — и будет похоже на сказку. Слишком сложно — потеряется магия научпопа ✨. Поэтому каждое предложение в этих статьях — это баланс, а каждый абзац проверяется и переписывается по нескольку раз 🔄.
Что дальше
Научпоп для меня — это способ делиться своими знаниями и раздвигать границы 🧠. Если хотя бы один человек, далекий от науки, поймёт, как устроены вычисления или языковые модели, я буду считать, что всё это не зря.
Ну а пока мои выходные проходят с кучей заметок 📓, табличек 📋 и кода 💾. Пожелайте мне удачи! 🍀 А если у вас есть идеи, про что ещё можно написать в таком формате, обязательно делитесь в комментариях. Кто знает, может, ваш вопрос станет темой следующей статьи? 😊
Истории (не)успеха (ИИ)ЕИ pinned «Выбор романа и героев, чтобы оттолкнутся от темы, навеян этой публикацией: Теория терпения. Как импульсивность героев Стефана Цвейга связана с экономикой.»
🧠 Пара мыслей о теориях личности, социологии, данных и больших языковых моделях
Начал копать вот здесь, здесь, здесь и здесь, сделал первые шаги (работа ещё далеко не закончена 😅) и столкнулся с психологическим барьером. Проблема в том, что во мне борятся 🧑🏫 математик и 🖥️ информатик. Психолог и социолог внутри меня давно сдались, а теперь математик и информатик сражаются за то, как подойти к темам лингвистики, психологии и социологии в контексте машинного обучения и анализа данных.
❓ Как говорят немцы, "стою на шланге", который сам пытаюсь направить на грядки.
Вот пример: есть нейросети, натренированные на огромных корпусах текстов. Они "читали" почти всё, что написали люди, выявили связи между словами, предложениями, текстами и контекстами. За этим стоит очень элегантная математика, но также много эмпирики и случайных параметров.
Например, одна модель сносно определяет личностные характеристики Антона Гофмиллера из романа Стефана Цвейга "Нетерпение сердца" через эмбеддинги, как я это показал вот здесь. Потом я прикрутил к модели классификатор для анализа личности по Большой пятёрке. Планирую скоро рассказать о том, как модифицировать модели типа BERT под свои задачи, но пока не об этом...
🔍 Эмбеддинги — это представления слов, предложений, текстов и контекстов в пространствах высокой размерности (в данном случае размерность пространства — 768). В итоге почти всё, что было написано людьми за всю историю, "упаковывается" в связи в этом 768-мерном пространстве, а потом проецируется обратно в 5-мерное пространство теории Большой пятёрки с помощью вот такого вот кода.
Почему я "стою на шланге"? Потому что не знаю, что делать дальше. Научился запускать и тренировать модели, но мне не хватает конкретных кейсов, чтобы это было интересно в контексте психологии, социологии или лингвистики.
Что я пока понял:
1️⃣ Тут слишком много эмпирики и случайных параметров.
2️⃣ Не хватает общей теории: лингвопсихологической — с одной стороны, математической — с другой.
И про последнее в 2️⃣ скажу так: я х**ею, товарищи, с конвергентности метода градиентного спуска при обучении больших языковых моделей. Я думал, у меня кривые руки, а оказалось — не совсем 😅.
Продолжение следует.
Начал копать вот здесь, здесь, здесь и здесь, сделал первые шаги (работа ещё далеко не закончена 😅) и столкнулся с психологическим барьером. Проблема в том, что во мне борятся 🧑🏫 математик и 🖥️ информатик. Психолог и социолог внутри меня давно сдались, а теперь математик и информатик сражаются за то, как подойти к темам лингвистики, психологии и социологии в контексте машинного обучения и анализа данных.
❓ Как говорят немцы, "стою на шланге", который сам пытаюсь направить на грядки.
Вот пример: есть нейросети, натренированные на огромных корпусах текстов. Они "читали" почти всё, что написали люди, выявили связи между словами, предложениями, текстами и контекстами. За этим стоит очень элегантная математика, но также много эмпирики и случайных параметров.
Например, одна модель сносно определяет личностные характеристики Антона Гофмиллера из романа Стефана Цвейга "Нетерпение сердца" через эмбеддинги, как я это показал вот здесь. Потом я прикрутил к модели классификатор для анализа личности по Большой пятёрке. Планирую скоро рассказать о том, как модифицировать модели типа BERT под свои задачи, но пока не об этом...
🔍 Эмбеддинги — это представления слов, предложений, текстов и контекстов в пространствах высокой размерности (в данном случае размерность пространства — 768). В итоге почти всё, что было написано людьми за всю историю, "упаковывается" в связи в этом 768-мерном пространстве, а потом проецируется обратно в 5-мерное пространство теории Большой пятёрки с помощью вот такого вот кода.
Почему я "стою на шланге"? Потому что не знаю, что делать дальше. Научился запускать и тренировать модели, но мне не хватает конкретных кейсов, чтобы это было интересно в контексте психологии, социологии или лингвистики.
Что я пока понял:
1️⃣ Тут слишком много эмпирики и случайных параметров.
2️⃣ Не хватает общей теории: лингвопсихологической — с одной стороны, математической — с другой.
И про последнее в 2️⃣ скажу так: я х**ею, товарищи, с конвергентности метода градиентного спуска при обучении больших языковых моделей. Я думал, у меня кривые руки, а оказалось — не совсем 😅.
Продолжение следует.
🔥2
Из всех кого я знаю в дэйта сайнс и машинном обучении из чатов - это чисто прикладной анализ данных и машинное обучение для бизнеса, которые тут врядли что-то полезное скажут. Надо идти к чистым математикам и звать Диму и Арена.
Forwarded from Системный Блокъ
«Гипотеза Поллианны»: насколько позитивна детская зарубежная литература?
В 1969 году Дж. Баучер и Ч. Э. Осгуд представили и обосновали идею о том, что «люди склонны видеть (и обсуждать) светлую сторону жизни». Эту тенденцию назвали «гипотезой Поллианны» в честь главной героини романа «Поллианна», жизнерадостной сироты, которая пытается найти что-то хорошее в любой ситуации. В материале рассказываем о том, как исследователи провели сентимент-анализ корпусов детской литературы, чтобы проверить эту гипотезу.
Что и как исследовали?
Чтобы провести анализ тональности детских и юношеских текстов, ученые взяли 372 англоязычные и 500 немецкоязычных книг. В качестве инструмента для исследования был выбран SentiArt, в основе которого – векторная модель, а не списки слов. У этого метода есть свои недостатки, но ученые убедились, что он всё же эффективнее альтернатив.
Что с английским корпусом?
Посмотрев на соотношение положительных и отрицательных слов в предложении, исследователи увидели, что в среднем в предложениях было больше позитивно окрашенной лексики. Среди эмоций и чувств в корпусе преобладали удивление, страх и счастье, на второй план отошли печаль, гнев и отвращение.
А что с немецким?
Книги в немецкоязычном корпусе, который был более разнообразным и репрезентативным, тоже соответствовали «принципу Поллианны». В англоязычный корпус вошли только произведения, опубликованные только до 1952 года. Немецкий же содержал в том числе более поздние книги, включая переводы всех частей Гарри Поттера и Антуана де Сент-Экзюпери.
А есть ли различия?
Основываясь на результатах сентимент-анализа и полученных данных, исследователи пришли к выводу, что англоязычный корпус имеет более выраженный позитивный уклон, чем немецкоязычный. Более того, анализ немецкоязычных текстов показал: чем современнее произведение, тем меньше там выражена позитивность.
Узнать о результатах и процессе работы подробнее, а также выяснить, подтверждает ли «гипотезу Поллианны» сама «Поллианна», можно из полной версии статьи.
Время чтения: 8,5 минут
🤖 «Системный Блокъ» @sysblok
В 1969 году Дж. Баучер и Ч. Э. Осгуд представили и обосновали идею о том, что «люди склонны видеть (и обсуждать) светлую сторону жизни». Эту тенденцию назвали «гипотезой Поллианны» в честь главной героини романа «Поллианна», жизнерадостной сироты, которая пытается найти что-то хорошее в любой ситуации. В материале рассказываем о том, как исследователи провели сентимент-анализ корпусов детской литературы, чтобы проверить эту гипотезу.
Что и как исследовали?
Чтобы провести анализ тональности детских и юношеских текстов, ученые взяли 372 англоязычные и 500 немецкоязычных книг. В качестве инструмента для исследования был выбран SentiArt, в основе которого – векторная модель, а не списки слов. У этого метода есть свои недостатки, но ученые убедились, что он всё же эффективнее альтернатив.
Что с английским корпусом?
Посмотрев на соотношение положительных и отрицательных слов в предложении, исследователи увидели, что в среднем в предложениях было больше позитивно окрашенной лексики. Среди эмоций и чувств в корпусе преобладали удивление, страх и счастье, на второй план отошли печаль, гнев и отвращение.
А что с немецким?
Книги в немецкоязычном корпусе, который был более разнообразным и репрезентативным, тоже соответствовали «принципу Поллианны». В англоязычный корпус вошли только произведения, опубликованные только до 1952 года. Немецкий же содержал в том числе более поздние книги, включая переводы всех частей Гарри Поттера и Антуана де Сент-Экзюпери.
А есть ли различия?
Основываясь на результатах сентимент-анализа и полученных данных, исследователи пришли к выводу, что англоязычный корпус имеет более выраженный позитивный уклон, чем немецкоязычный. Более того, анализ немецкоязычных текстов показал: чем современнее произведение, тем меньше там выражена позитивность.
Узнать о результатах и процессе работы подробнее, а также выяснить, подтверждает ли «гипотезу Поллианны» сама «Поллианна», можно из полной версии статьи.
Время чтения: 8,5 минут
Please open Telegram to view this post
VIEW IN TELEGRAM
Системный Блокъ
Насколько позитивна детская зарубежная литература?
Как «принцип Поллианны» проявляется в зарубежной литературе для детей и подростков? Рассказываем, как при помощи сентимент-анализа и векторных моделей проверяли эту теорию.
👆👆👆Тут интересны методы исследований литературы для проверки гипотезы, а это эмбеддинги и косинусное сходство векторов
Telegram
Истории (не)успеха
🧠 Пара мыслей о теориях личности, социологии, данных и больших языковых моделях
Начал копать вот здесь, здесь, здесь и здесь, сделал первые шаги (работа ещё далеко не закончена 😅) и столкнулся с психологическим барьером. Проблема в том, что во мне борятся…
Начал копать вот здесь, здесь, здесь и здесь, сделал первые шаги (работа ещё далеко не закончена 😅) и столкнулся с психологическим барьером. Проблема в том, что во мне борятся…
ИИ и основная работа: ускоряем рутину, но...есть нюанс 🤖💻
Эту неделю пишу UI-веб-тесты с Page-Object-Pattern. Мне не нужно, чтобы ИИ придумывал за меня тестлогику — мне нужно экономить время на рутинных задачах: меньше писать руками, больше генерировать.
Идеально было бы, если бы ИИ брал HTML и сам создавал Page-Object классы, которые я пишу ручками - это чисто рутинная работа. ChatGPT с небольшими HTML-страницами справляется отлично: я показываю отрывки, объясняю формат Page Class — и получаю рабочий код, который можно просто копировать. Уже экономит кучу времени! ✅
Но есть нюанс. Дьявол в деталях 😈: полный HTML не влезает в контекстное окно модели. Он слишком большой, и при анализе ChatGPT забывает, что вообще происходит. У языковых моделей ограниченный контекст, а мои HTML — до 100КБ, так что просто передать их целиком не выйдет ❌
Есть идея 💡: попробовать пофайнтюнить отркытую модель от фейсбука/мета LlamaCode на выходных под эту задачу. Получится или нет — расскажу позже. 🚀
Эту неделю пишу UI-веб-тесты с Page-Object-Pattern. Мне не нужно, чтобы ИИ придумывал за меня тестлогику — мне нужно экономить время на рутинных задачах: меньше писать руками, больше генерировать.
Идеально было бы, если бы ИИ брал HTML и сам создавал Page-Object классы, которые я пишу ручками - это чисто рутинная работа. ChatGPT с небольшими HTML-страницами справляется отлично: я показываю отрывки, объясняю формат Page Class — и получаю рабочий код, который можно просто копировать. Уже экономит кучу времени! ✅
Но есть нюанс. Дьявол в деталях 😈: полный HTML не влезает в контекстное окно модели. Он слишком большой, и при анализе ChatGPT забывает, что вообще происходит. У языковых моделей ограниченный контекст, а мои HTML — до 100КБ, так что просто передать их целиком не выйдет ❌
Есть идея 💡: попробовать пофайнтюнить отркытую модель от фейсбука/мета LlamaCode на выходных под эту задачу. Получится или нет — расскажу позже. 🚀
#НастроениеВоскресенья
Завтра утром скажу на планерке, что всю неделю буду заниматься файнттюнингом нейросетей, чтобы решить проблему с размерами контекстного окна и не писать этот код вручную.
Завтра утром скажу на планерке, что всю неделю буду заниматься файнттюнингом нейросетей, чтобы решить проблему с размерами контекстного окна и не писать этот код вручную.
😁2❤🔥1
🏃♂️ Кто из Мюнхена и хочет побегать в это воскресенье?
В это воскресенье, 16.02, начинаю подготовку к возможному выступлению в мае. И стартую с бега по горкам в Олимпиапарке.
На мой взгляд, бег по равнине – пустая трата времени. Гораздо эффективнее бегать по холмам с ускорениями и замедлениями – так выносливость растёт в разы быстрее. Но всё будет легко и ненапряжно – никакого самоистязания не потребуется, я тоже только начинаю после большого перерыва.
В цикле подготовки к бою мне всегда хватало 8-12 таких беговых тренировок за 2-3 месяца – но, конечно, это только про бег. Помимо него есть и другие тренировки, но именно по горкам – ключ к быстрой выносливости.
📍 Мюнхен, Олимпиапарк
📆 Воскресенье, 16.02
⏰ 12:00
Присоединяйтесь! Будем бегать расслабленно, но вы позитивно удивитесь, на что вообще способно ваше тело (бег по горкам – это вам не шутки). А мышцы ног и спины вас не забудут поблагодарить на следующий день приятной крепатурой😆💪
В это воскресенье, 16.02, начинаю подготовку к возможному выступлению в мае. И стартую с бега по горкам в Олимпиапарке.
На мой взгляд, бег по равнине – пустая трата времени. Гораздо эффективнее бегать по холмам с ускорениями и замедлениями – так выносливость растёт в разы быстрее. Но всё будет легко и ненапряжно – никакого самоистязания не потребуется, я тоже только начинаю после большого перерыва.
В цикле подготовки к бою мне всегда хватало 8-12 таких беговых тренировок за 2-3 месяца – но, конечно, это только про бег. Помимо него есть и другие тренировки, но именно по горкам – ключ к быстрой выносливости.
📍 Мюнхен, Олимпиапарк
📆 Воскресенье, 16.02
⏰ 12:00
Присоединяйтесь! Будем бегать расслабленно, но вы позитивно удивитесь, на что вообще способно ваше тело (бег по горкам – это вам не шутки). А мышцы ног и спины вас не забудут поблагодарить на следующий день приятной крепатурой😆💪
Как не соврать, но ввести в заблуждение: мастер-класс от ESPN, подхваченный президентом Федерации бокса РФ 🎭🥊
Вчера Кейшон Дэвис победил украинца Дениса Беринчика и стал чемпионом мира в лёгком весе. 📢 Американский телеканал ESPN тут же выдал ему место в "историческом" рейтинге боксёров, которые быстрее всего завоевали титул.
Но вот тут начинается самое интересное. 👀
В этот список включили Джимми Бритта, который в 1900-х владел специальным "поясом для белых" (да-да, такой пояс реально был), но при этом проиграл настоящему чемпиону того времени Джо Гансу. 🤦♂️
🔹 Эту несправедливость заметили даже в подконтрольном президенту федерации бокса РФ Умару Кремлёву (урождённому Лутфуллоеву) канале.
Но вот что странно: ещё одна, куда более очевидная деталь, осталась за кадром. 🤔
В рейтинге присутствует Василь Ломаченко, но ни слова о том, что он завоевал чемпионский титул уже в третьей весовой категории всего за 12 боёв! 🏆🔥 Это совсем другой уровень достижения, но почему-то никто не посчитал нужным об этом упомянуть.
🔹 Одна "ошибка" возмущает, а другая проходит мимо? Что ж, каждый видит то, что хочет видеть. Или то, что выгодно видеть. 😉
Вроде чистая правда, да? Ломаченко действительно стал чемпионом в лёгком весе в 12-м бою.
Но если не знать контекст, звучит так же, как в этом рейтинге – просто "один из самых быстрых чемпионов". На деле же это достижение совершенно другого масштаба и уровня!
Ну и вишенка на торте 🍒: этот "анализ" преподносит канал, подконтрольный Умару Кремлёву (урождённому Лутфуллоеву).
А когда факты подаются таким образом, главное — не то, что сказано, а то, что сознательно упущено. 🎭
👇👇👇
Вчера Кейшон Дэвис победил украинца Дениса Беринчика и стал чемпионом мира в лёгком весе. 📢 Американский телеканал ESPN тут же выдал ему место в "историческом" рейтинге боксёров, которые быстрее всего завоевали титул.
Но вот тут начинается самое интересное. 👀
В этот список включили Джимми Бритта, который в 1900-х владел специальным "поясом для белых" (да-да, такой пояс реально был), но при этом проиграл настоящему чемпиону того времени Джо Гансу. 🤦♂️
🔹 Эту несправедливость заметили даже в подконтрольном президенту федерации бокса РФ Умару Кремлёву (урождённому Лутфуллоеву) канале.
Но вот что странно: ещё одна, куда более очевидная деталь, осталась за кадром. 🤔
В рейтинге присутствует Василь Ломаченко, но ни слова о том, что он завоевал чемпионский титул уже в третьей весовой категории всего за 12 боёв! 🏆🔥 Это совсем другой уровень достижения, но почему-то никто не посчитал нужным об этом упомянуть.
🔹 Одна "ошибка" возмущает, а другая проходит мимо? Что ж, каждый видит то, что хочет видеть. Или то, что выгодно видеть. 😉
Вроде чистая правда, да? Ломаченко действительно стал чемпионом в лёгком весе в 12-м бою.
Но если не знать контекст, звучит так же, как в этом рейтинге – просто "один из самых быстрых чемпионов". На деле же это достижение совершенно другого масштаба и уровня!
Ну и вишенка на торте 🍒: этот "анализ" преподносит канал, подконтрольный Умару Кремлёву (урождённому Лутфуллоеву).
А когда факты подаются таким образом, главное — не то, что сказано, а то, что сознательно упущено. 🎭
👇👇👇
Forwarded from Новости бокса и ММА
Кейшон Дэвис попал в четверку боксеров, которым понадобилось меньше всего боев, чтобы завоевать титул чемпиона мира в легком весе.
Но это по версии телеканала ESPN, которая кажется довольно спорной, потому что Джимми Брит владел специальным чемпионским поясом для белых, а общепризнанным чемпионом мира в легком весе в то время был Джо Ганс, которому он проиграл.
Но это по версии телеканала ESPN, которая кажется довольно спорной, потому что Джимми Брит владел специальным чемпионским поясом для белых, а общепризнанным чемпионом мира в легком весе в то время был Джо Ганс, которому он проиграл.
Первая пробежка после 2,5 лет безделья: камбэк 🏃♂️🔥
Сегодня, на расслабоне (но с героизмом в сердце 💪), пробежал 9 км по горкам за 1 час.
📊 Статистика великого возвращения:
➡ Максимальная скорость – 14 км/ч (почти как Усэйн Болт… если бы он бежал в гору с рюкзаком картошки) 🏎️
➡ Перепад высот – 140 метров (чувствовал себя как альпинист, но без кислорода и смысла) 🏔️
➡ Средний темп – 6:51 мин/км (чуть быстрее, чем если бы я просто быстро шёл в магазин за пивом) 🍺
Конечно, результаты могли быть лучше, если бы было перед кем попонтоваться. Но так чё – на релаксе, без лишних нервов. Следующая пробежка – либо быстрее, либо с оператором, чтобы хоть кто-то заценил! 🎥😂 Но пару видео добавлю в комментариях 👇
🔻 Апдейт спустя пару часов: 🔻
Ноги уже болят, спина завтра будет болеть… 😅
#Running #Sport
Сегодня, на расслабоне (но с героизмом в сердце 💪), пробежал 9 км по горкам за 1 час.
📊 Статистика великого возвращения:
➡ Максимальная скорость – 14 км/ч (почти как Усэйн Болт… если бы он бежал в гору с рюкзаком картошки) 🏎️
➡ Перепад высот – 140 метров (чувствовал себя как альпинист, но без кислорода и смысла) 🏔️
➡ Средний темп – 6:51 мин/км (чуть быстрее, чем если бы я просто быстро шёл в магазин за пивом) 🍺
Конечно, результаты могли быть лучше, если бы было перед кем попонтоваться. Но так чё – на релаксе, без лишних нервов. Следующая пробежка – либо быстрее, либо с оператором, чтобы хоть кто-то заценил! 🎥😂 Но пару видео добавлю в комментариях 👇
🔻 Апдейт спустя пару часов: 🔻
Ноги уже болят, спина завтра будет болеть… 😅
#Running #Sport
Так выглядит рай для нейросетей 😍🤖🔥
💀 Видеокарты на пределе, электричество плавит провода, но это не ад – это рай!
На таком звере можно спокойно обучать модели в 200B+ и запускать сотни 7B одновременно. 😏
🚀 LLaMA 3 70B? Запускаем в десятках экземпляров.
🤖 GPT-4o-класса модели? Fine-tune без проблем.
🎥 Генерация видео уровня Sora? Вообще не вопрос.
🧠 Модели в 200B+? Обучаем с комфортом.
А я на своём Mac с 32 ГБ RAM радуюсь, что у меня влезает LLama 7B. 😆
Каждая NVIDIA B200 жрет до 1000 Ватт ⚡, а их восемь! В итоге этот сервер может тянуть до 8 кВт, что сравнимо с зарядкой электромобиля 🚗.
В моменте этот сервер может жрать до 8 кВт — это как если бы ты включил сауну, плиту и кондиционер одновременно. 😅🔥
А все ради чего? Чтобы разогреть видеокарты и тренировать 70B+ модели без плясок с бубном.
Угадайте, сколько такое удовольствие стоит без расходов на электроэнергию?
3000$ -🙂
40000$ - 😀
500000$ - 😂
6000000$ - 🤣
💀 Видеокарты на пределе, электричество плавит провода, но это не ад – это рай!
На таком звере можно спокойно обучать модели в 200B+ и запускать сотни 7B одновременно. 😏
🚀 LLaMA 3 70B? Запускаем в десятках экземпляров.
🤖 GPT-4o-класса модели? Fine-tune без проблем.
🎥 Генерация видео уровня Sora? Вообще не вопрос.
🧠 Модели в 200B+? Обучаем с комфортом.
А я на своём Mac с 32 ГБ RAM радуюсь, что у меня влезает LLama 7B. 😆
Каждая NVIDIA B200 жрет до 1000 Ватт ⚡, а их восемь! В итоге этот сервер может тянуть до 8 кВт, что сравнимо с зарядкой электромобиля 🚗.
В моменте этот сервер может жрать до 8 кВт — это как если бы ты включил сауну, плиту и кондиционер одновременно. 😅🔥
А все ради чего? Чтобы разогреть видеокарты и тренировать 70B+ модели без плясок с бубном.
Угадайте, сколько такое удовольствие стоит без расходов на электроэнергию?
3000$ -🙂
40000$ - 😀
500000$ - 😂
6000000$ - 🤣
👍1