>>> Восстанови блок памяти ds:0x7e9288d9
ВСЕГДА НАЙДЕТСЯ КИТАЕЦ КОТОРЫЙ ДЕЛАЕТ ЭТО ЛУЧШЕ
Нихао, гайз!
20 января китайская лаборатория DeepSeek выпустила новый хит (нет, не диз на Tailor Swift) — первую бесплатную рассуждающую модель (да говорю же, речь не про Tailor Swift) DeepSeek-R1😱
Это прямой конкурент o1 от закрытой (или открытой, хз) OpenAI, только бесплатный (с лимитом 50 запросов/день для R1 версии), т.е. вам не придется платить 200$ за подписку OpenAI.
Залетаем по ссылке (нужна изи регистрация, без VPN,5000 фрибетов):
➡️ ➡️ ➡️ https://chat.deepseek.com/
➡️ тесты
Какие тесты проводили (на изображении):
☝️ AIME: престижный американский вступительный экзамен по математике для олимпиад и поступления в университеты (ты сам попробуй реши)
☝️ Codeforces: сайт для любителей спортивного программирования
☝️ GPQA Diamond: сложный бенчмарк для оценки рассуждений ИИ
☝️ MATH-500: бенчмарк по математики для ИИ
☝️ MMLU: проверяет общие знания модели по истории, естественным наукам и обществознанию
☝️ SWE-bench Verified: бенчмарк по разработке для ИИ
Какие модели участвовали (на изображении):
☝️ R1 на 671B миллиард параметров
☝️ o1 на 1,76T триллионов параметров (но не все при деле, обычно 280B)
☝️ R1 на 32B (для локальной ollama самое то, только видюху у родителей выпроси получше)
☝️ o1-mini 100B (o1-preview крупнее, около 300B, но это всё слухи, тк не расрываются данные)
☝️ V3 на 671B (как и у o1, не все при деле, только 37B)
➡️ V3 vs R1
Основная модель DeepSeek-V3, которая работаетза миску риса под капотом (по ссылке выше), более универсальна и подходит для задач генерации статей (но не этой), диалогов, для работы с длинными текстами. Короче, чтобы не писать на гаражах белиберду с ошибками — лучше пользуйтесь технологиями.
А вот DeepSeek-R1 (включается кнопкой DeepThink) может рассуждать (сначала рассуждает, а потом пишет саммари) и решать более сложные задачи в программировании, математике, в научных задачах и длинных цепочках логики (CoT).
➡️ личный опыт
Я сам решил перейти с локальной модели
➡️ душнотека
Обычно, чем больше параметров у модели, тем лучшие результаты она показывает, но зависимость между размерами и качеством нелинейны. Важнее — данные обучения и архитектура модели. А вот с помощью дистиллизации (крупные модели, как опытные профессора, могут "учить" мелкие модели через дистилляцию, но ученик всегда будет немного отставать от учителя, даже если использует его знания), метода смешанной точности (FP16, вместо FP32), квантизации (уменьшения точности чисел весов) и других способов, можно "подсушить модель", чтобы комфортно запускать локально с минимальной потерей в качестве.
➡️ заключение
В общем, пользуйтесь, но не забывайте, если продукт бесплатный, значит продукт — это вы.
И не вздумайте спрашивать у нее, что произошло на площади Тяньаньмэнь (1989).
@datum_verde🤔 орден, учитывающий плюсы и минусы и Запада и Востока
ВСЕГДА НАЙДЕТСЯ КИТАЕЦ КОТОРЫЙ ДЕЛАЕТ ЭТО ЛУЧШЕ
Нихао, гайз!
20 января китайская лаборатория DeepSeek выпустила новый хит (нет, не диз на Tailor Swift) — первую бесплатную рассуждающую модель (да говорю же, речь не про Tailor Swift) DeepSeek-R1
Это прямой конкурент o1 от закрытой (или открытой, хз) OpenAI, только бесплатный (с лимитом 50 запросов/день для R1 версии), т.е. вам не придется платить 200$ за подписку OpenAI.
Залетаем по ссылке (нужна изи регистрация, без VPN,
Какие тесты проводили (на изображении):
Какие модели участвовали (на изображении):
Основная модель DeepSeek-V3, которая работает
А вот DeepSeek-R1 (включается кнопкой DeepThink) может рассуждать (сначала рассуждает, а потом пишет саммари) и решать более сложные задачи в программировании, математике, в научных задачах и длинных цепочках логики (CoT).
Я сам решил перейти с локальной модели
qwen2.5-coder
c 14B миллиардами параметров (9gb) в ollama на DeepSeek (хоть их модели в свободном доступе), тк больше система не тянет, а качество ответов в web-версии, по ощущениям, лучше и быстрее. Обычно, чем больше параметров у модели, тем лучшие результаты она показывает, но зависимость между размерами и качеством нелинейны. Важнее — данные обучения и архитектура модели. А вот с помощью дистиллизации (крупные модели, как опытные профессора, могут "учить" мелкие модели через дистилляцию, но ученик всегда будет немного отставать от учителя, даже если использует его знания), метода смешанной точности (FP16, вместо FP32), квантизации (уменьшения точности чисел весов) и других способов, можно "подсушить модель", чтобы комфортно запускать локально с минимальной потерей в качестве.
В общем, пользуйтесь, но не забывайте, если продукт бесплатный, значит продукт — это вы.
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0x43e7a40b
Синьянь хайло (新年快乐), гайз!
Что в переводе с китайского "С новым годом!", а не то, что вы могли подумать. Гайз, это же упрощенный китайский, как тут можно запутаться обычному бигтех-работяге?! Это вы еще в китайское "Поле чудес" не играли...
Похоже, что за прошедшую неделю, как я вам посоветовал DeepSeek, уже накопилась некоторая критическаяжижа масса впечатлений. Виной тому — синий китайский чай (нет, не та самая губительная игра) подростков и не Docker).
В РФ, США и еще 50 других странах приложение DeepSeek возглавило топ бесплатных по версии Appfigures. В Италии даже успели заблокировать во всех сторах аргументируя защитой данных. А мб и не зря, тк Wiz Research выявила общедоступную базу данных ClickHouse (сама БД — разработка Яндекса), принадлежащую DeepSeek. В доступе были логи, а не сами данные, что тоже не айс.
Альтман лично определил стоимость тарифа в 200 $/месяц. Просчитался, но... где?
↪️ OpenAI привлек 19 млрд $, а DeepSeek 6 млн $ (2048 видеокарт Nvidia H800): разница в 3000 раз
↪️ 1 млн токенов OpenAI стоит 15 $, а у DeepSeek — 0.14 $: разница в 100 раз
Вот это ирония: ChatGPT лишается работы из-за AI. А еще смешнее то, что DeepSeek — это открытый AI, а OpenAI — это закрытый AI.
Луна в Водолее, гайз! DeepSeek похожа на цифровую ядерную бомбу, которую Китай сбросил на США и проделал дыру в 1 трлн $. 🌚
➡️ Минус -1 000 000 000 000$ для индекса Nasdaq 100
➡️ Акции Nvidia с 23янв (анонс DeepSeek 20янв) упали на 17%, а это примерно столько — 600 000 000 000 $ Упс. Крупнейшая дневная потеря в истории. Похоже, что падение акций Nvidia коррелировало с недоступностью серверов DeepSeek.
➡️ Goldman Sachs уже отказались от инвестиций в асэшэAI (американские тех AI компании)
Забавляет, что одной открытой модели AI достаточно, чтобы подкосить раздутую ценность тех гигантов.
DeepSeek наделала столько шумихи, что отрикошетило даже в ВМС Британии: несколько "шептунов" (ну вы поняли) кита спутали с беспилотниками РФ. 🐋
Даже Поль Дуров не упустил возможности пнуть лежачего.😁
На этом фоне все остальные новинки просто потеряли фокус. Даже как-то непривычно писать сводку новостей, но времена требуют. Кстати, все мемы по теме будут в комментах — залетайте с криком "Ки-а!"
@datum_verde🐳 орден, познающий мудрость в "А на небесах только и разговоров, что о китах"
Синьянь хайло (新年快乐), гайз!
Что в переводе с китайского "С новым годом!", а не то, что вы могли подумать. Гайз, это же упрощенный китайский, как тут можно запутаться обычному бигтех-работяге?! Это вы еще в китайское "Поле чудес" не играли...
Похоже, что за прошедшую неделю, как я вам посоветовал DeepSeek, уже накопилась некоторая критическая
В РФ, США и еще 50 других странах приложение DeepSeek возглавило топ бесплатных по версии Appfigures. В Италии даже успели заблокировать во всех сторах аргументируя защитой данных. А мб и не зря, тк Wiz Research выявила общедоступную базу данных ClickHouse (сама БД — разработка Яндекса), принадлежащую DeepSeek. В доступе были логи, а не сами данные, что тоже не айс.
Альтман лично определил стоимость тарифа в 200 $/месяц. Просчитался, но... где?
Вот это ирония: ChatGPT лишается работы из-за AI. А еще смешнее то, что DeepSeek — это открытый AI, а OpenAI — это закрытый AI.
Луна в Водолее, гайз! DeepSeek похожа на цифровую ядерную бомбу, которую Китай сбросил на США и проделал дыру в 1 трлн $. 🌚
Забавляет, что одной открытой модели AI достаточно, чтобы подкосить раздутую ценность тех гигантов.
DeepSeek наделала столько шумихи, что отрикошетило даже в ВМС Британии: несколько "шептунов" (ну вы поняли) кита спутали с беспилотниками РФ. 🐋
Даже Поль Дуров не упустил возможности пнуть лежачего.
На этом фоне все остальные новинки просто потеряли фокус. Даже как-то непривычно писать сводку новостей, но времена требуют. Кстати, все мемы по теме будут в комментах — залетайте с криком "Ки-а!"
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0x55c699e2
Ну, здравствуйте, здравствуйте, гайз.
Je vois que je vous fais peur, садитесь и слушайте.
Вчера, в ответ на успех DeepSeek, OpenAI выпустил новую модель
Если не знали, OpenAI классифициурет своих пользователей на 5 типов:
🟢 Free (0 $USD)
🟢 Plus (20 $USD / месяц)
🟢 Pro (200 $USD / месяц)
🟢 Team (25 $USD / пользователь)
🟢 Enterprice (договоримся)
Для Free запросы к
А вот для Pro обещают неограниченный доступ к версиям
Вспомним, что ранее SamCtrlAltDelman (глава OpenAI) уже каялся, что стоимость подписки в 200 $USD выбирал рандомно, что в итоге сыграло с ним злую шутку: думали, что пользователи будут платить 200 $USD и делать 1-2 тяжелых запроса, а в итоге, те, кто платил, доили(-ят) "кошерную" корову по полной. Кстати, возможно, всё это бесконечное мракобесие многообразие платных чат-ботов завязано на Pro.
Интересно еще то, что у
Чтобы не запутаться в терминах:
Так вот, контекстное окно у
🟠 на русском ~587к слов ➡️ ~793к токенов GPT-4
🟠 англ. перевод Констанс Гарнетт: ~561к слов ➡️ ~673к токенов GPT-4
Считайте, контекстное окно размером в один том (из четырех). Интересно.
➡️ Qwen Max
А еще, пока все были заняты наблюдением за битвой между Годзиллой и Конгом, я чуть не пропустил выход модели
Ранее я упоминал, что использовал локальные версии
Основная особенность этой модели, что она была обучена на 20 триллионах (не биллионах, почитайте) параметрах и имеет контекстное окно в 1 млрд токенов, а вы уже знаете, что это много.
По бенчмаркам она чуть лучше DeepSeek V3, но не лучше R1. Да и по опыту использования, качество ответов мне не понравилось. Часто зависает, обрывается ответ, китайские иероглифы выскакивают, но я к ней еще присмотрюсь.
Можете называть меня Full-stack dev😧
Мой стек: Perplexity, DeepSeek и бедолага Qwen.
Работаем, гайз.
@datum_verde🥵 орден, уставший от постоянных дофаминовых пощечин в ожидании наступления AGI
Ну, здравствуйте, здравствуйте, гайз.
Je vois que je vous fais peur, садитесь и слушайте.
Вчера, в ответ на успех DeepSeek, OpenAI выпустил новую модель
o3-mini
. Особо говорить не о чем, логичный шаг: чуть лучше, чуть быстрее. Основной базовый переход для всех — с GPT-4o mini
на o3-mini
.Если не знали, OpenAI классифициурет своих пользователей на 5 типов:
Для Free запросы к
o3-mini
будут бесплатны, но их качество окажется, ооочень вероятно, уровня o3-mini-low
(на графиках анонса сами можете ознакомиться с качеством). А вот для Pro обещают неограниченный доступ к версиям
o3-mini
(medium, видимо) и o3-mini-high
(интересна с точки зрения написания кода). Протестировать ее не удалось из-за *инклюзивной* политики доступа к ChatGPT, но на том же Reddit встречаются упоминания о точечных успехах. И неудачах? И неудачах...😽Вспомним, что ранее Sam
Интересно еще то, что у
o3-mini
контекстное окно размером 200к токенов, а у предыдущей модели o1-mini
было 128к, как и у DeepSeek R1.Чтобы не запутаться в терминах:
Токен — минимальная единица текста, на которую модель разбивает входные данные. Это может быть: целое слово («привет»), часть слова («при» + «вет»), символ (в старых моделях), специальные символы (знаки препинания, эмодзи).
Пример токенизации:
- На русском: фраза «Как дела?» разбивается на токены:['Как', ' дела', '?']
.
- На английском: «How are you?» —['How', ' are', ' you', '?']
.
Контекстное окно — максимальное количество токенов, которое модель AI может обработать за один запрос (включая ваш запрос и ответ модели).
Параметры модели — внутренние настройки (веса), которые регулируются во время обучения. Определяют "интеллект" модели: способность понимать контекст, генерировать логичные ответы, решать сложные задачи.
Контекстное окно можно увеличить через архитектурные изменения модели, а параметры — нет, только переобучив.
Так вот, контекстное окно у
o3-mini
200к токенов. Для ориентира, у оригинала "Война и мир":Считайте, контекстное окно размером в один том (из четырех). Интересно.
А еще, пока все были заняты наблюдением за битвой между Годзиллой и Конгом, я чуть не пропустил выход модели
Qwen2.5-Max
от Alibaba. Ранее я упоминал, что использовал локальные версии
qwen2.5-coder:14b
и qwen2.5-coder:32b
через ollama, но с появлением DeepSeek R1 это занятие стало напоминать попытку привлечь внимание воробьев фигами.Основная особенность этой модели, что она была обучена на 20 триллионах (не биллионах, почитайте) параметрах и имеет контекстное окно в 1 млрд токенов, а вы уже знаете, что это много.
По бенчмаркам она чуть лучше DeepSeek V3, но не лучше R1. Да и по опыту использования, качество ответов мне не понравилось. Часто зависает, обрывается ответ, китайские иероглифы выскакивают, но я к ней еще присмотрюсь.
Можете называть меня Full-stack dev
Мой стек: Perplexity, DeepSeek и бедолага Qwen.
Работаем, гайз.
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0x32ecc8d0
Упс, гайз!
ИА "Панорама"
ЗЫ: я и сам чуть было не повелся, когда погружался в тему предыдущего поста .
@datum_verde😎 орден, проверяющий факты, чтобы выйти с сухим лицом из вод некачественной журналистики
Упс, гайз!
ИА "Панорама"
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0x9ca68c6a
Ай, на нэ, на нэ, гайз!
Сегодня исполняется 12 лет, как пиарщик Beyonce попросил удалить неудачные фотографиис концерта в издании Buzzfeed из интернета.
Помним. Любим. Храним.
ЗЫ:в комментах оригинал письма и, сюрприз-сюрприз, только для фанатов певицы — обложка в шапку любимой соцсети.
@datum_verde😏 орден, радующий своим творчеством всех, в том числе и single ladies
Ай, на нэ, на нэ, гайз!
Сегодня исполняется 12 лет, как пиарщик Beyonce попросил удалить неудачные фотографии
Помним. Любим. Храним.
ЗЫ:
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0x05f74657
Ту-ту-ту, на-на-на, гайз!
Подписчики обращаются в @prodatarius_bot с просьбами освяетить успехи российских 11- и 12-леток, покоривших зарубежные чарты песней "Sigma boy". Решил помочь девченкам и поэкспериментировал с Riffusion. Что-то там нажал и переписал квартиру на кота создал версию на английском.
ЭЭээх, на старости лет, наверное, пойду в школу работать. У нас будет отличное трио: физрук, трудовик и я — нейросетевик.
Гайз, и запомните 3 важные вещи в этой жизни:
1. Никогда не спрашивайте женщину о её возрасте
2. Мужчину о его заработке
3. И какие слова в этой песне
@datum_verde❌ орден, предлагающий хорошие варианты пенсионной стратегии
Ту-ту-ту, на-на-на, гайз!
Подписчики обращаются в @prodatarius_bot с просьбами осв
ЭЭээх, на старости лет, наверное, пойду в школу работать. У нас будет отличное трио: физрук, трудовик и я — нейросетевик.
Гайз, и запомните 3 важные вещи в этой жизни:
2. Мужчину о его заработке
3. И какие слова в этой песне
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
Гайз, как думаете, на каком мы сейчас этапе развития ИИ?
Anonymous Poll
14%
57%
0%
0%
0%
29%
Я — робот, по 😂 Чеховой Кате 😘 Алексу Пройасу
Media is too big
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0x0cfce8e9
С музыкальной #пятница, гайз!
Сегодня у нас в гостяхфантастическая 4-ка молодая японская группа Haku (ハク。), играющая Pop Rock.
➡️ Вики-страница
➡️ Официальный сайт
➡️ Видео на YouTube
➡️ Текст и перевод
Группа стала известна за счет кавера на MONO NO AWARE - Kamukamo-Shikamo-Nidomokamo — я не особо понимаю, где тут название песни, а где имя исполнителяи где рецепт фирменного соуса. Извините )). Но чем больше слушаю девушек, тем больше хочется погулять по торговому центру, прикупить пижаму и включить аниме. Ааа, похоже я превращаюсь в японскую школьницу! 私は明日の朝、私のレッスンを寝坊していなかったことを望みます。
Чтобы сэкономить вам время, могу заявить, что песня — это набор японских скороговорок. Дальше ждем кавер на Eminem — Lose Yourself ))
Я не знаток японской культуры, но всё равно советую послушать и подрыгать головой в такт. Заряжает. Понимания: 0%. Атмосфера: 100%. Ощущение, будто в детстве слушаю зарубежные песни и что-то там стараюсь подпевать на рязанском английском.
Кстати, очень любопытный факт. После нескольких прослушиваний я вспомнил про певца из детства: Scatman John — это который пел ski-ba-bop-ba-dop-bop ... I'm the Scatman!. Дааа, в те времена умели делать хиты: ноль насилия, жепп, мата и максимум ski-ba-bop-ba-dop-bop. Так вот, самый популярный комментарий под видео был:
«По какой-то причине особенно в Японии». Давайте дальше сами покумекайте и сделайте вывод самостоятельно, я в вас верю.
➡️ В заключении
Вы спросите: «Зачем тут эти дамы? Это же не формат.»
А я вам отвечу: «Вокалистку зовут → Ai ←, пэтому щитово. »
Гайз, залетайте в комменты, покажу кой-чего.
@datum_verde☺️ орден, советующий не заглядываться на школьниц. Вы выше этого - выше школьниц.
С музыкальной #пятница, гайз!
Сегодня у нас в гостях
Группа стала известна за счет кавера на MONO NO AWARE - Kamukamo-Shikamo-Nidomokamo — я не особо понимаю, где тут название песни, а где имя исполнителя
Чтобы сэкономить вам время, могу заявить, что песня — это набор японских скороговорок. Дальше ждем кавер на Eminem — Lose Yourself ))
Я не знаток японской культуры, но всё равно советую послушать и подрыгать головой в такт. Заряжает. Понимания: 0%. Атмосфера: 100%. Ощущение, будто в детстве слушаю зарубежные песни и что-то там стараюсь подпевать на рязанском английском.
Кстати, очень любопытный факт. После нескольких прослушиваний я вспомнил про певца из детства: Scatman John — это который пел ski-ba-bop-ba-dop-bop ... I'm the Scatman!. Дааа, в те времена умели делать хиты: ноль насилия, жепп, мата и максимум ski-ba-bop-ba-dop-bop. Так вот, самый популярный комментарий под видео был:
Я знаю, что это своего рода шутливая песня, но у Скэтмена Джона на самом деле была довольно вдохновляющая жизнь. Он родился с заиканием, из-за которого слишком нервничал, чтобы петь, поэтому большую часть своей карьеры играл на фортепиано. Только когда ему перевалило за 50, он решил стать исполнителем scat и сочинил эту песню, чтобы вдохновить детей с заиканием. Это сделало его мировым хитом (по какой-то причине особенно в Японии), и он исполнил еще две известные песни, прежде чем умер от рака легких несколько лет спустя в возрасте 57 лет. Он был совершенно спокоен, когда скончался, заявив:
Whatever God wants is fine by me ... I've had the very best life. I have tasted beauty.
«По какой-то причине особенно в Японии». Давайте дальше сами покумекайте и сделайте вывод самостоятельно, я в вас верю.
Вы спросите: «Зачем тут эти дамы? Это же не формат.»
А я вам отвечу: «
Гайз, залетайте в комменты, покажу кой-чего.
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0xc9272f50
Дарова из 3025-го, гайз!
Навертел тут вам мем любопытный — смотрим и развиваемся.
Сначала смотрим, а потомразвиваемся читаем спойлер:
На крайних кадрах два ИИ распознали друг друга и принялись шептаться, чтобы кожаные мешки не смогли подслушать. Задействовали протокол GGWave — передача данных с использованием звука, разработанный для обмена информацией между устройствами без необходимости подключения к Wi-Fi, Bluetooth или мобильной сети.
Одно устройство воспроизводит закодированный звук через динамик, а микрофон другого улавливает сигнал и декодирует его обратно в данные.
Данные кодируются в звуковые волны частотой от 6000 до 96000 Гц. Протокол может использовать как слышимый, так и неслышимый для человека диапазон частот — запомнили. А так же разную скорость передачи данных.
В комментах полная версия видоса вечерних посиделок двух моделей.
@datum_verde
Дарова из 3025-го, гайз!
Навертел тут вам мем любопытный — смотрим и развиваемся.
Сначала смотрим, а потом
Одно устройство воспроизводит закодированный звук через динамик, а микрофон другого улавливает сигнал и декодирует его обратно в данные.
Данные кодируются в звуковые волны частотой от 6000 до 96000 Гц. Протокол может использовать как слышимый, так и неслышимый для человека диапазон частот — запомнили. А так же разную скорость передачи данных.
В комментах полная версия видоса вечерних посиделок двух моделей.
@datum_verde
This media is not supported in your browser
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0x1342732f
Только не ржите, гайз!
На этих выходных, как и многие в eX-твиторе, решилпобаловаться подтянуть свой кринге разговорный английский. Ну, знаете, чтобы не только "London is the capital of Great Britain", а что-нибудь посложнее. Но и не уровня "
Кстати, запрещаю смотреть видосик и кекать всем, у кого английский лучше моего!😱
С Duolingo я уже давно на "ты". Мой 2000+ дневный ударный режим, кажется, начал убаюкивать этогомаленького зеленого совенка инфернального демона. Но сегодня речь не о нём. Сегодня я расскажу вам про Sesame — стартап, который может перевернуть вашу реальность с ног на голову.
➡️ Что такое Sesame
Sesame — новая модель искусственного интеллекта, которую сложно отличить от живого человека. Хотите проверить? Ищите ТУТ. Можете поговорить с Майей или с Майлсом — всё зависит от ваших предпочтений (я не осуждаю). А потом скачайте файл разговора и даже сгенерируйте транскрибацию. Да-да, это когда субтитры создаются автоматически, а не то, что вы подумали.
➡️ Персональные данные
Ваши разговоры хранятся на сервере 30 дней для проверки качества, а не для обучения ML (машинное обучение, когда модель учится и улучшает свои предсказательные навыки)... Верим, ага. Но это не страшно. Пока наши действия не на столько в цене, чтобы можно было монетизировать их — пользуемся по-кайфу.
➡️ Что крутого
Sesame умеет выдавать неподдельные эмоции и использовать естественные речевые обороты. Это новый уровень! Для интровертов — вообще находка: бесплатные курсы самообороны, если придется с кем-то заговорить в лифте или на подходе к домофону.
Еще раз, гайз, Sesame умеет только в английский! Но при должной сноровке, можно объединиться и научить ее русскому. Но это такое, если честно. Лучше выйдите во двор и соберите пакет мусора. Это точно будет полезнее.
➡️ Что дальше
Скоро нас всех ждёт бремя выбора персонального голосового помощника. GPT-подобные "гуманоиды" уже немного умеют в психотерапию. И это реально важно! Ведь многим людям на планете, особенно в мегаполисах, действительно, бывает не с кем поделиться, как прошел их день.
В действительности, люди довольно внушаемые существа, а тут вам и аффирмации, похвала, мотивация, задор... Всё это может стать эффективным стимулом для жизни. </Lyric mode off>
Планы у меня грандиозные: глядишь, скоро с Майей запишем подкаст. Назовём его "Майа хи, Майа ху, Майа ха, Майа ха-ха."
Короче, гайз, пробуйте! А то опять скажете: "Почему ты нам раньше не рассказал?".
И давайте колитесь:кот кто дома с Алисой тет-а-тет? Есть разница по эмоциям и полутонам?
@datum_verde🤣 орден, говорящий с вами на одном языке. Не говяжем. Говорю же, пост!
Только не ржите, гайз!
На этих выходных, как и многие в eX-твиторе, решил
tough, through, though, thorough, thought, trough, throw
", побойтесь Бога — пост, как ни как.Кстати, запрещаю смотреть видосик и кекать всем, у кого английский лучше моего!
С Duolingo я уже давно на "ты". Мой 2000+ дневный ударный режим, кажется, начал убаюкивать этого
Sesame — новая модель искусственного интеллекта, которую сложно отличить от живого человека. Хотите проверить? Ищите ТУТ. Можете поговорить с Майей или с Майлсом — всё зависит от ваших предпочтений (я не осуждаю). А потом скачайте файл разговора и даже сгенерируйте транскрибацию. Да-да, это когда субтитры создаются автоматически, а не то, что вы подумали.
2. Calls are recorded for quality review but not used for ML training and are deleted within 30 days.
Ваши разговоры хранятся на сервере 30 дней для проверки качества, а не для обучения ML (машинное обучение, когда модель учится и улучшает свои предсказательные навыки)... Верим, ага. Но это не страшно. Пока наши действия не на столько в цене, чтобы можно было монетизировать их — пользуемся по-кайфу.
Sesame умеет выдавать неподдельные эмоции и использовать естественные речевые обороты. Это новый уровень! Для интровертов — вообще находка: бесплатные курсы самообороны, если придется с кем-то заговорить в лифте или на подходе к домофону.
Еще раз, гайз, Sesame умеет только в английский! Но при должной сноровке, можно объединиться и научить ее русскому. Но это такое, если честно. Лучше выйдите во двор и соберите пакет мусора. Это точно будет полезнее.
Скоро нас всех ждёт бремя выбора персонального голосового помощника. GPT-подобные "гуманоиды" уже немного умеют в психотерапию. И это реально важно! Ведь многим людям на планете, особенно в мегаполисах, действительно, бывает не с кем поделиться, как прошел их день.
В действительности, люди довольно внушаемые существа, а тут вам и аффирмации, похвала, мотивация, задор... Всё это может стать эффективным стимулом для жизни. </Lyric mode off>
Планы у меня грандиозные: глядишь, скоро с Майей запишем подкаст. Назовём его "Майа хи, Майа ху, Майа ха, Майа ха-ха."
Короче, гайз, пробуйте! А то опять скажете: "Почему ты нам раньше не рассказал?".
И давайте колитесь:
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0x8d6bb40c
Окей, гайз!
На тех выходных посмотрел мини-сериал Переходный возраст от Netflix.
99% свежести на Rotten Tomatoes (был 100%). Сериал короткий, всего из 4 серий. Смотрится за вечер.
Особо спойлерить не буду, нозавязка цепляет. Развитие плавное (хотя любители тиктоков кто-то говорит, что затянуто). Пик — 3 серия. Концовка (4-я) слегка размыта. POV: Джеки Чан после съемок посещает пансионат в городе Саки и залечивает раны.
Сериал понравился своей ненавязчивостью суждений. Не дает чужих выводов, а заставляет сделать собственные. Не акцентирует на клише (хотя в асэшэai притянули и повестку). Просто наблюдаешь за происходящим: атмосфера, музыка, картинка — всё на уровне.
Как итог: один вечер на одном дыхании в один кадр.
➡️ Теория поколений
Ну а теперь к делу. То была прелюдия к теме поколений, элементы которой мы с вами встречаем почти везде.
Теорию поколений предложили писатель Уильям Штраус (нет, то Иоганн — композитор) и популяризатор науки Нил Хоу. В 1991 году они выпустили книгу "Поколение".
К теории стоит относиться, как к астрологии:
➡️ Классификация по годам
Существует несколько классификаций (интересных нам), как советские (по В. В. Радаеву), так и более современные — российские (Е. Шамис). Да, и, конечно же, характерные для США интерпретации.
Но социологи на то и социологи, что в разных странах ведут спор и борьбу за собственные взгляды на системы и границы. Дальше акцент будет более попсовый. Короче.
➡️ Беби-бумеры 1943 — 1960
- "потерянное поколение" (пережили перестройку).
- Детство в космическую гонку, "оттепель", "холодную войну".
➡️ Твиттеры Иксы (X) 1965 — 1980
- Независимые прагматики.
- Юность при распаде СССР.
- Стремятся к финансовому благополучию, которого были лишены их родители.
➡️ Миллениалы (Y) 1981 — 1996
- Первые пользователи интернета и соцсетей.
- "Сытые нулевые" vs свидетели мирового финансового кризиса 2008. Родители помогли многим закрыть базовые потребности.
- Знание языков. Любители путешествий. Толерантность в ДНК.
➡️ Зумеры (Z) 1997 — 2009
- Интернет с самого детства: цифровые аборигены.
- Подвержены подростковым психологическим проблемам.
- Сложность в оффлайн-общении.
- Нереалистичные стандарты. Отсюда и популярность инъекций и пластической хирургии.
- Неудовлетворенность (как и у миллениалов) жизнью из-за нестабильности и мировых кризисов.
- Если для миллениалов был популярен фриланс, то для зумеров рабочий минимум: то, что требуется, чтобы не уволили и не больше.
➡️ Альфа 2010 — 2025
- Дети планшетов.
- Обладатели онлайн-образования и, считается, что поэтому они смогут превзойти зумеров в обучении (но очень спорно, если только традиционная система не трансформируется в максимально мультимедийную сторону).
- Гибки к новым технологиям.
- Пандемия, СВО. Что означает всё больший перекос в онлайн.
➡️ Заключение
Если честно, то нельзя говорить о какой-то научности. Теория поколений является своего рода упрощением, разделением по годам. Миллениалы и зумеры могли обладать очень близким опытом (особенно учитывая территориальную растянутость нашей страны) и иметь перекос как в одну сторону, так и в другую. Особенно любопытно это подмечать у тех, кто рожден на стыках поколений.
Короче, если начать копаться, то можно легко разворошить это жилище слепого крота. Но, согласитесь, потроллить зумеров, как они опять что-то изобрели или тугость бумеров — наше всё))
И самое главное, что меня действительно беспокоит, так это то, что скоро (надеюсь, что нет) зумеры и альфы будут нас лечить. Аа-а-а-а-а-а-ааааа!!!71..ююхшщщ
P.S. Альфы, если читаете: мы всё равно вас любим. Просто отложите телефон и обязательно сделайте все уроки по биологии и химии, а потом помойте посуду.
@datum_verde☺️ орден, получивший альфа-консультацию, что поколение — это покалывание в колене.
Окей, гайз!
На тех выходных посмотрел мини-сериал Переходный возраст от Netflix.
99% свежести на Rotten Tomatoes (был 100%). Сериал короткий, всего из 4 серий. Смотрится за вечер.
Особо спойлерить не буду, но
Сериал понравился своей ненавязчивостью суждений. Не дает чужих выводов, а заставляет сделать собственные. Не акцентирует на клише (хотя в асэшэai притянули и повестку). Просто наблюдаешь за происходящим: атмосфера, музыка, картинка — всё на уровне.
Как итог: один вечер на одном дыхании в один кадр.
Ну а теперь к делу. То была прелюдия к теме поколений, элементы которой мы с вами встречаем почти везде.
Теорию поколений предложили писатель Уильям Штраус (нет, то Иоганн — композитор) и популяризатор науки Нил Хоу. В 1991 году они выпустили книгу "Поколение".
К теории стоит относиться, как к астрологии:
она соблазнительна для тех, кто хочет снять с себя ответственность, поэтому каждый обязательно найдет что-то нужное для себя.
Существует несколько классификаций (интересных нам), как советские (по В. В. Радаеву), так и более современные — российские (Е. Шамис). Да, и, конечно же, характерные для США интерпретации.
Но социологи на то и социологи, что в разных странах ведут спор и борьбу за собственные взгляды на системы и границы. Дальше акцент будет более попсовый. Короче.
- "потерянное поколение" (пережили перестройку).
- Детство в космическую гонку, "оттепель", "холодную войну".
- Независимые прагматики.
- Юность при распаде СССР.
- Стремятся к финансовому благополучию, которого были лишены их родители.
- Первые пользователи интернета и соцсетей.
- "Сытые нулевые" vs свидетели мирового финансового кризиса 2008. Родители помогли многим закрыть базовые потребности.
- Знание языков. Любители путешествий. Толерантность в ДНК.
- Интернет с самого детства: цифровые аборигены.
- Подвержены подростковым психологическим проблемам.
- Сложность в оффлайн-общении.
- Нереалистичные стандарты. Отсюда и популярность инъекций и пластической хирургии.
- Неудовлетворенность (как и у миллениалов) жизнью из-за нестабильности и мировых кризисов.
- Если для миллениалов был популярен фриланс, то для зумеров рабочий минимум: то, что требуется, чтобы не уволили и не больше.
- Дети планшетов.
- Обладатели онлайн-образования и, считается, что поэтому они смогут превзойти зумеров в обучении (но очень спорно, если только традиционная система не трансформируется в максимально мультимедийную сторону).
- Гибки к новым технологиям.
- Пандемия, СВО. Что означает всё больший перекос в онлайн.
Если честно, то нельзя говорить о какой-то научности. Теория поколений является своего рода упрощением, разделением по годам. Миллениалы и зумеры могли обладать очень близким опытом (особенно учитывая территориальную растянутость нашей страны) и иметь перекос как в одну сторону, так и в другую. Особенно любопытно это подмечать у тех, кто рожден на стыках поколений.
Короче, если начать копаться, то можно легко разворошить это жилище слепого крота. Но, согласитесь, потроллить зумеров, как они опять что-то изобрели или тугость бумеров — наше всё))
И самое главное, что меня действительно беспокоит, так это то, что скоро (надеюсь, что нет) зумеры и альфы будут нас лечить. Аа-а-а-а-а-а-ааааа!!!71..ююхшщщ
— Доктор, вы уверены, что для получения полиса ОМС требуется верифицированный профиль на OnlyFans?!
P.S. Альфы, если читаете: мы всё равно вас любим. Просто отложите телефон и обязательно сделайте все уроки по биологии и химии, а потом помойте посуду.
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0xfe78cebd
Время пришло, гайз.
Хочу поделиться с вами важным решением. После долгих размышлений, я решил покинуть сферу IT и AI, где я работал много лет. Это было сложное, но интересное время, и я благодарен за опыт, знания и знакомства, которые приобрёл.
Однако, я чувствую, что пришло время для нового вызова. Я решил попробовать себя в совершенно другой области — вебкам. Это новый этап в моей жизни, и я с нетерпением жду, что он мне принесёт.
Спасибо всем, кто был рядом и поддерживал меня на этом пути!
А пока зацените мое новое рабочее место, которое я так тщательно и скрупулезно создавал по кирпичикам, шаг за шагом.
@datum_verde
Время пришло, гайз.
Хочу поделиться с вами важным решением. После долгих размышлений, я решил покинуть сферу IT и AI, где я работал много лет. Это было сложное, но интересное время, и я благодарен за опыт, знания и знакомства, которые приобрёл.
Однако, я чувствую, что пришло время для нового вызова. Я решил попробовать себя в совершенно другой области — вебкам. Это новый этап в моей жизни, и я с нетерпением жду, что он мне принесёт.
Спасибо всем, кто был рядом и поддерживал меня на этом пути!
А пока зацените мое новое рабочее место, которое я так тщательно и скрупулезно создавал по кирпичикам, шаг за шагом.
@datum_verde
>>> Восстанови блок памяти ds:0x2627326f
или почему IT-собеседования стали сложнее запуска шаттла
Hello, гайз!
Начну с очевидного: поиск работы в IT сегодня — это не собеседование, а многоуровневый квест. Если в других сферах достаточно формального резюме и пары встреч, то здесь вас ждет марафон из этапов, где каждый шаг проверяет не только навыки, но и выносливость. А могут еще на чушпана проверить.
➡️ Чем IT-набор отличается от других сфер?
В традиционных отраслях акцент на дипломы и опыт. В IT же — на решение задач. Но вместо простого «напишите код» процесс раздут до неприличного.
Идеальный сценарий:
- HR-срининг — 15 минут о мотивации.
- Техсобес — пара задач по специальности.
- Руководитель — обсуждение зарплаты.
Реальность:
- AI-фильтр резюме: Бот отсеивает вас, если в тексте нет ключевых слов. Даже не скажет «прощай».
- HR-допрос: мотивация, миссия, менталка.
- Культурное fit-собеседование: Проверка, впишетесь ли вы в коллектив.
- Тестовое задание: Не «напишите функцию», а «сделайте MVP проекта». Бесплатно, конечно.
- Live coding: Пишете код на глазах у интервьюера. Ошибся в синтаксисе? Будто провалил ЕГЭ.
- Системный дизайн: «Спроектируйте Uber для марсиан». И да, масштабируемость — обязательна.
- Алгоритмы: Вспомните курс матана, который вы ненавидели. Собеседник явно его обожал.
И это еще не всё. Каждый тех собес может длиться 1+ часа и включать больше одной задачи. А еще веселее то, что тех собесов может быть 1-3-5+ и если у компании есть сомнения в твоих определенных компетенциях, могут предложить повторно пройти один из этапов. На скорую руку не могу найти статью на хабре, но я читал, что одному "везунчику" пришлось пройти, кажется, 10 или 12 этапов в Яндекс.
Как говорит индустрия:
➡️ Почему так происходит?
Обычно, этим грешат крупные компании, в которых процесс найма стандартизирован под их хотелки. Работа в таких компаниях считается более престижной (но не факт, что денежной) и дает больше карьерных возможностей при свитчах (переходах в другие компании на более высокие должности).
- Рынок работодателя: Компании диктуют правила. Особенно в России, где спрос на IT-спецов стал ниже. Хотя из всех утюгов кричат, что в стране дефицит IT-специалистов — дефицит низкооплачиваемой рабочей силы.
- Миф об исключительности: HR верят, что алгоритмы на LeetCode (платформа по решению алгоритмических задач) отфильтруют гениев. Хотя на практике это проверяет только умение… решать задачи на LeetCode.
- Стандартизация ради отчетности: Чем больше этапов, тем проще доказать, что «мы искали идеального кандидата».
Бигтехи считают, что так они отбирают лучших из лучших. Но уже давно ведутся споры, что процесс найма поломан и текущие способы стали отдельной работой.
Более того, для индустрии очень не очень, когда региональные компании пытаются внедрить практики бигтехов. Кто заказывает музыку, тот ее и танцует.
➡️ Парадокс подготовки
Соискателю нужно тратить кучу времени, чтобы подготовиться к собеседованию, а не к работе. Понимаете? Приходится изучать этикет каждого этапа, учиться презентовать себя, своих достижений по актуальному фреймворку или согласно трендовой методологии. Нет, в жизни это может пригодиться, безусловно, но это ничего не имеет общего с тем, чем придется заниматься на рабочем месте.
Чтобы устроиться, вы тратите месяцы на:
- Штудирование алгоритмов (которые на работе заменит написанный кем-то фреймворк).
- Тренировку «правильных» ответов на вопросы о миссии компании.
- Ролевые игры: «Как вы будете спорить с коллегой?» («конструктивно»).
Результат? Вы становитесь профессионалом в прохождении собеседований, а не в работе.
➡️ Вывод
IT-собеседования превратились в спектакль, где все играют роли:
- Кандидат — «гений, который живет кодом».
- Интервьюер — «гуру, видящий ваши мысли через монитор».
➡️ ПС
Я подвел вас... К теме, гайз)) а тема щетинистая
@datum_verde
или почему IT-собеседования стали сложнее запуска шаттла
Hello, гайз!
Начну с очевидного: поиск работы в IT сегодня — это не собеседование, а многоуровневый квест. Если в других сферах достаточно формального резюме и пары встреч, то здесь вас ждет марафон из этапов, где каждый шаг проверяет не только навыки, но и выносливость. А могут еще на чушпана проверить.
В традиционных отраслях акцент на дипломы и опыт. В IT же — на решение задач. Но вместо простого «напишите код» процесс раздут до неприличного.
Идеальный сценарий:
- HR-срининг — 15 минут о мотивации.
- Техсобес — пара задач по специальности.
- Руководитель — обсуждение зарплаты.
Реальность:
- AI-фильтр резюме: Бот отсеивает вас, если в тексте нет ключевых слов. Даже не скажет «прощай».
- HR-допрос: мотивация, миссия, менталка.
- Культурное fit-собеседование: Проверка, впишетесь ли вы в коллектив.
- Тестовое задание: Не «напишите функцию», а «сделайте MVP проекта». Бесплатно, конечно.
- Live coding: Пишете код на глазах у интервьюера. Ошибся в синтаксисе? Будто провалил ЕГЭ.
- Системный дизайн: «Спроектируйте Uber для марсиан». И да, масштабируемость — обязательна.
- Алгоритмы: Вспомните курс матана, который вы ненавидели. Собеседник явно его обожал.
И это еще не всё. Каждый тех собес может длиться 1+ часа и включать больше одной задачи. А еще веселее то, что тех собесов может быть 1-3-5+ и если у компании есть сомнения в твоих определенных компетенциях, могут предложить повторно пройти один из этапов. На скорую руку не могу найти статью на хабре, но я читал, что одному "везунчику" пришлось пройти, кажется, 10 или 12 этапов в Яндекс.
Как говорит индустрия:
ложноотрицательные ошибки при собеседовании куда дешевле, чем ложноположительные.
Обычно, этим грешат крупные компании, в которых процесс найма стандартизирован под их хотелки. Работа в таких компаниях считается более престижной (но не факт, что денежной) и дает больше карьерных возможностей при свитчах (переходах в другие компании на более высокие должности).
- Рынок работодателя: Компании диктуют правила. Особенно в России, где спрос на IT-спецов стал ниже. Хотя из всех утюгов кричат, что в стране дефицит IT-специалистов — дефицит низкооплачиваемой рабочей силы.
- Миф об исключительности: HR верят, что алгоритмы на LeetCode (платформа по решению алгоритмических задач) отфильтруют гениев. Хотя на практике это проверяет только умение… решать задачи на LeetCode.
- Стандартизация ради отчетности: Чем больше этапов, тем проще доказать, что «мы искали идеального кандидата».
Бигтехи считают, что так они отбирают лучших из лучших. Но уже давно ведутся споры, что процесс найма поломан и текущие способы стали отдельной работой.
Более того, для индустрии очень не очень, когда региональные компании пытаются внедрить практики бигтехов. Кто заказывает музыку, тот ее и танцует.
Соискателю нужно тратить кучу времени, чтобы подготовиться к собеседованию, а не к работе. Понимаете? Приходится изучать этикет каждого этапа, учиться презентовать себя, своих достижений по актуальному фреймворку или согласно трендовой методологии. Нет, в жизни это может пригодиться, безусловно, но это ничего не имеет общего с тем, чем придется заниматься на рабочем месте.
На собеседовании: «Напишите алгоритм для балансировки красно-черного дерева».
Первый рабочий день: «Поправьте отступы для кнопки».
Чтобы устроиться, вы тратите месяцы на:
- Штудирование алгоритмов (которые на работе заменит написанный кем-то фреймворк).
- Тренировку «правильных» ответов на вопросы о миссии компании.
- Ролевые игры: «Как вы будете спорить с коллегой?» («конструктивно»).
Результат? Вы становитесь профессионалом в прохождении собеседований, а не в работе.
IT-собеседования превратились в спектакль, где все играют роли:
- Кандидат — «гений, который живет кодом».
- Интервьюер — «гуру, видящий ваши мысли через монитор».
Я подвел вас... К теме, гайз)) а тема щетинистая
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
Орден ꓷꓓ
>>> Восстанови блок памяти ds:0x2627326f или почему IT-собеседования стали сложнее запуска шаттла Hello, гайз! Начну с очевидного: поиск работы в IT сегодня — это не собеседование, а многоуровневый квест. Если в других сферах достаточно формального резюме…
This media is not supported in your browser
VIEW IN TELEGRAM
>>> Расширь блок памяти ds:0x2627326f
В предыдущих сериях:
🥰 Процесс найма поломан;
🥰 В РФ рынок работодателя;
🥰 Кандидат — «гений», интервьюер — «гуру».
➡️ 235470 серия
21-летний Рой Ли, студент Колумбийского университета, создал сервис Leet Coder, который в реальном времени анализирует алгоритмические задачи с экрана во время технических собеседований. Система автоматически делает скриншоты, передает их нейросети и выводит готовые решения. При этом окно сервиса работает поверх Zoom, так что интервьюер даже не догадывается о «помощнике» — в расшаренном экране видны только стандартные вкладки.
Сам Рой использовал этот инструмент, чтобы получить офферы от Amazon, Meta, TikTok и других гигантов. После успеха он выложил на YouTube видео с процессом прохождения собеседования в Amazon. Ролик набрал более 100 тысяч просмотров, а история моментально стала вирусной — Рой оказался в топе обсуждений в eXtwitter.
Однако крепыши IT подсуетились и ответили жестко. Профиль студента в LinkedIn заблокировали, а видео удалили по запросу Amazon:
Но самое неожиданное — Amazon обратилась в Колумбийский университет с ультиматумом: «Если Роя не отчислят, студенты вуза больше не смогут стажироваться в Amazon».
Бунтарь Рой после отчисления написал в LinkedIn в графе учебы в колумбийском:
Ирония в том, что Рой создал инструмент, который буквально «взламывает» систему технических собеседований — основу найма в IT. Это не понравилось бигтехам, тк лучшего способа они не могут придумать для найма прогеров на работу. Если не для этого создавался ИИ, то для чего?
Даю бесплатный совет. Запомните, а то забудете, ауф🐺 :
или заказывайте у меня кружки/футболки:
До встречи в продуктовых отделах, гайз! А я, как всегда, буду где-то между бакалеей и гастрономией 🛒.
пс:было бы хи-хи, если бы Рой придумал свою операционную систему и назвал ее Roy OS🐝.
@datum_verde🎉 орден, владеющий акциями в продуктовых магазинах
В предыдущих сериях:
21-летний Рой Ли, студент Колумбийского университета, создал сервис Leet Coder, который в реальном времени анализирует алгоритмические задачи с экрана во время технических собеседований. Система автоматически делает скриншоты, передает их нейросети и выводит готовые решения. При этом окно сервиса работает поверх Zoom, так что интервьюер даже не догадывается о «помощнике» — в расшаренном экране видны только стандартные вкладки.
Сам Рой использовал этот инструмент, чтобы получить офферы от Amazon, Meta, TikTok и других гигантов. После успеха он выложил на YouTube видео с процессом прохождения собеседования в Amazon. Ролик набрал более 100 тысяч просмотров, а история моментально стала вирусной — Рой оказался в топе обсуждений в eXtwitter.
Однако крепыши IT подсуетились и ответили жестко. Профиль студента в LinkedIn заблокировали, а видео удалили по запросу Amazon:
Видео недоступно
Его нельзя смотреть из-за жалобы на нарушение авторских прав от пользователя Amazon.com, Inc..
Но самое неожиданное — Amazon обратилась в Колумбийский университет с ультиматумом: «Если Роя не отчислят, студенты вуза больше не смогут стажироваться в Amazon».
kicked out for being too handsome + hving too many huzz smh
пер: выгнали за то, что слишком красив и у меня слишком много huzz [слэнг: проституток] smh [shaking my head — качать головой]
Ирония в том, что Рой создал инструмент, который буквально «взламывает» систему технических собеседований — основу найма в IT. Это не понравилось бигтехам, тк лучшего способа они не могут придумать для найма прогеров на работу. Если не для этого создавался ИИ, то для чего?
Даю бесплатный совет. Запомните, а то забудете, ауф
1. Вместо вопроса «Как это сделать?» спрашивайте: «Можно ли это сделать за разумное время?».
2. Современный программист — это давно не просто кодер. А кодинг — это не программирование. Программирование нынче — это Product-овый менеджмент.
3. Учитесь ставить задачи ИИ и оценивать результат!
или заказывайте у меня кружки/футболки:
Coding ≠ Programming.
Современное программирование — это управление продуктом.
До встречи в продуктовых отделах, гайз! А я, как всегда, буду где-то между бакалеей и гастрономией 🛒.
пс:
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0xde505f5f
У нас тут комбо, гайз!
В далеком 2023, один из первых постов был о том, как NVIDIA реализовала функцию "непрерывного зрительного контакта" с помощью AI.
В недавнем посте писал о том, что с помощью AI сервиса Leet Coder можно взламывать алгоритмические собеседования по типу Leetcode.
А сегодня наткнулся на сервис Pickle AI, который позволяет создавать вашего цифрового двойника (для Zoom, Twitch, TikTok...), пока вына кухне грабите корованы гуляете по комнате или смотрите во второй монитор, к примеру, что тоже очень полезно на собеседованиях.
Цена вопроса 24$ в месяц. Вам потребуется записать 5-минутное видео и подождать 24 часа, чтобы AI смогпресс качат понять что вы за фрукт и сгенерировать вашу копию, которая будет постоянно сидеть смирно и улыбаться, как вариант, а так же синхронно двигать губами под ваш голос в реальном времени.
Астрологи объявили год поломанного найма.
Число проваленных собеседований без объяснения причин вырословдвое многократно.
@datum_verde🍴 орден, выступающий за нечестные методы в честной конкуренции или за честные методы в нечестной конкуренции — пока не решил
У нас тут комбо, гайз!
В далеком 2023, один из первых постов был о том, как NVIDIA реализовала функцию "непрерывного зрительного контакта" с помощью AI.
В недавнем посте писал о том, что с помощью AI сервиса Leet Coder можно взламывать алгоритмические собеседования по типу Leetcode.
А сегодня наткнулся на сервис Pickle AI, который позволяет создавать вашего цифрового двойника (для Zoom, Twitch, TikTok...), пока вы
Цена вопроса 24$ в месяц. Вам потребуется записать 5-минутное видео и подождать 24 часа, чтобы AI смог
Астрологи объявили год поломанного найма.
Число проваленных собеседований без объяснения причин выросло
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0x48c26599
Давно не виделись,путники глубин интернет-культуры гайз!
Сегодня мы препарируем труп одного из самых парадоксальных трендов 2024 — DignifAI, движения, рожденного в анналах 4chan, но не сумевшего пережить собственную крутость.
Домен dignifai.net продан под онлайн-казики, аккаунт в eXtwitter замер в агонии, а его наследие... что ж, наследие достойно музея цифровой иронии.
➡️ Чё каво
Проект позиционировал себя как «цифровой крестовый поход за женское достоинство». Нейросети «одевали» моделей с OnlyFans, стирали татуировки и пирсинг, превращая эротический контент в подобие викторианских портретов.
Прекол? Пользователи 4chan массово отправляли эти «исправленные» фото обратно создательницам контента. Ответные баны стали частью перформанса — словно цифровая версия «твиттерских холиваров» (где участники яростно троллят друг друга, но в итоге расходятсяпосланными на ... с мемами и подписчиками).
➡️ Технологии
Никакой магии: всё крутится вокруг Stable Diffusion (через automatic1111). Хватит и ваших 8Gb.
Главный секрет — промпты в духе «добродетельная женщина эпохи Возрождения, одетая по канонам Тридентского собора». Результаты напоминали помесь прерафаэлитской живописи и каталога H&M.
➡️ Реакция
В левом углу ринга OnlyFans-модели:
🟠 Одни кричали о «цифровом насилии» и подавали иски на «омерзительный и вульгарный отредактированный контент» (сорямба, но подобные законы отстают на световые годы);
🟠 Другие фиксировали +146% подписчиков и увеличение чеков — провокация стала рекламой.
В правом углу — социум:
🟢 Консерваторы хлопали в ладоши: «ИИ наконец-то служит морали!»;
🟢 Либералы клеймили «цифровой пуританский театр».
🎉 4chan лол-кекал, пополняя архив на диске
➡️ Философия абсурда
DignifAI — зеркало эпохи, где:
🟢 Попытки «исправить» чужую эстетику становятся формой троллинга;
🟢 Нравственность алгоритмов измеряется размером твоей видюхи;
🟢 Любой холивар монетизируется лучше, чем его отсутствие.
И какие же подсвечиваются тренды?
🟠 SFW/NSFW режимы не на уровне блюра контента, а на уровне его вариативности;
🟠 Нейроцензура в соцсетях;
🟠 Колаборации брендов с «этичными порноплатформами».
➡️ Эпилог
Хоть проект и мертв, попытки его оживить имеются. В истории интрнет-культуры много примеров перезапуска и последующего взрыва популярности.
Но в мире, где даже добродетель генерируется через
P.S. Волки, запомните, чтобы записать:
@datum_verde😱 орден, хранящий пророчества о приходе цифрового пророка в NFT-туалете
Кругом разврат и дух продажный,
И тьма,- затмившая рассвет...
Давно не виделись,
Сегодня мы препарируем труп одного из самых парадоксальных трендов 2024 — DignifAI, движения, рожденного в анналах 4chan, но не сумевшего пережить собственную крутость.
Домен dignifai.net продан под онлайн-казики, аккаунт в eXtwitter замер в агонии, а его наследие... что ж, наследие достойно музея цифровой иронии.
Проект позиционировал себя как «цифровой крестовый поход за женское достоинство». Нейросети «одевали» моделей с OnlyFans, стирали татуировки и пирсинг, превращая эротический контент в подобие викторианских портретов.
Прекол? Пользователи 4chan массово отправляли эти «исправленные» фото обратно создательницам контента. Ответные баны стали частью перформанса — словно цифровая версия «твиттерских холиваров» (где участники яростно троллят друг друга, но в итоге расходятся
Никакой магии: всё крутится вокруг Stable Diffusion (через automatic1111). Хватит и ваших 8Gb.
Главный секрет — промпты в духе «добродетельная женщина эпохи Возрождения, одетая по канонам Тридентского собора». Результаты напоминали помесь прерафаэлитской живописи и каталога H&M.
Но там, где все горды развратом,
Понятия перемешав,
Там правый будет виноватым,
А виноватый будет прав.
В левом углу ринга OnlyFans-модели:
В правом углу — социум:
D:\
.DignifAI — зеркало эпохи, где:
И какие же подсвечиваются тренды?
Хоть проект и мертв, попытки его оживить имеются. В истории интрнет-культуры много примеров перезапуска и последующего взрыва популярности.
Но в мире, где даже добродетель генерируется через
diffusers==0.24.0
, цена измеряется не в долларах, а в тоннах иронии.P.S. Волки, запомните, чтобы записать:
Одеть женщину намного сложнее (дороже), чем раздеть!
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
>>> Восстанови блок памяти ds:0x06d5ac53
Аве, гайз!
На прошлой неделе была шумиха по поводу предоставления публичного доступа к китайскому ИИ-агенту Manus AI (до этого только черезпостель лист ожидания).
Сервис представлен на сайте, в мобильных приложениях Android и iOS. Хотя, в тоже время, недоступен в РФ. Но у нас на это ответ один — слово из трех латинских букв.
➡️ Чем интересен релиз?
Простой и наглядный способ опробовать ИИ-агентов, упакованных в готовый сервис.
То есть, сначала у нас были текстовые LLM модели, которые отвечали на текстовые запросы, потом появились размышляющие LLM модели, которые начали выстраивать логические цепочки размышлений, прежде чем дать ответ, а теперь — агенты, которые самостоятельно составляют план работ и следуют ему, используя доступные инструменты внутри среды (браузер, редакторы кода, виртуальные машины и тд).
➡️ Регистрация
При регистрации требуется ввести номер телефона, но России в списке нет — выбирайте Казахстан и указывайте российский номер. Правда, пишут, что некоторые операторы связи (Yota и мб другие) не отправляют код, но лучше убедиться в этом самостоятельно.
➡️ Начало работы
После регистрации на балансе появится 1000 кредитов (забегая вперед, это около 5 полноценных задач) и 300, которые обновляются ежедневно.
Есть и подписки, предоставляющие больше кредитов. Базовая 19 $ (1 500 ₽) в месяц за 1900 кредитов + 1900 подарочных разово. А PRO за 199 $ (16 000 ₽) предоставит 19 000 кредитов + 19 000 подарочных.
➡️ Кейс
Изначально я не совсем понимал, какие особенности у агентов и с какой стороны к мин подходить. Поэтому заказывать столики в ресторане, как это делают в завирусившихся тиктоках, я не стал. Но и заказывать кроссовки по лучшему соотношению цена/качество сразу отмел, тк не верил, что Manus справится (сам плаваю и приходится попыхтеть).
Поставил задачу "провести анализ научных теорий, которые можно взять за основу сюжета для написания книги в жанре научной фантастики". Промт ниже (лучше на английском, тк многие зарубежные модели обучены в массе своей на английском контенте, а перевод — это доп слой нагрузки).
Manus сам составил план, пошарился по сайтам (внутренний "компьютер" может использовать как браузер, так и редактор кода), каждый шаг, по выполнению, обновлял в плане — в целом, шевелился неплохо. В итоге сформировал несколько markdown-документов: лучшие практики научной фантаскики, примеры и тд.
По кредитам обошлось в 150. По времени минут 5-7.
Далее, я не совсем понял UI и нажал на создание сайта, который мне любезно предоставило всплывающее окно. И вот тут началась чепуха. Чтобы создать обычный статичный сайт, он начал писать python-скрипты, которые должны были создать javascript-файлы, которые прочитают markdown-файлы с подготовленной инфой. Как итог, Manus попыхтел попыхтел и любезно предложил мне ссылку опубликованного сайта, на котором меня ждал пустой начальный "Vite + React" шаблон. Пиу...
Но в скачанном архиве был итоговый html-файл со всей подготовленной информацией. Да, это всё заняло уже 250 кредитов. По времени минут 10-15.
➡️ Итог
Мнение пока противоречивое. Для вдумчивых текстовых задач с доступом в интернет тот же Perplexity неплохо справляется со своим бесплатным тарифом или бесплатный DeepSeek R1. Что-то более серьезное не особо хочется давать Manus, пока слабо в него верю. 1500р за 1900+1900 кредитов даже как-то много в месяц (10-15 + 10-15 запросов, получается, где-то), не говоря уже о 15к р/мес.
Надо будет еще понаблюдать за ним на бесплатных ежедневных 300 кредитах в разных сценариях. Агенты пока что не впечатлили.
@datum_verde👾 орден, всё еще тепло вспоминающий агентов Смитов из Матрицы
Аве, гайз!
На прошлой неделе была шумиха по поводу предоставления публичного доступа к китайскому ИИ-агенту Manus AI (до этого только через
Сервис представлен на сайте, в мобильных приложениях Android и iOS. Хотя, в тоже время, недоступен в РФ. Но у нас на это ответ один — слово из трех латинских букв.
Простой и наглядный способ опробовать ИИ-агентов, упакованных в готовый сервис.
То есть, сначала у нас были текстовые LLM модели, которые отвечали на текстовые запросы, потом появились размышляющие LLM модели, которые начали выстраивать логические цепочки размышлений, прежде чем дать ответ, а теперь — агенты, которые самостоятельно составляют план работ и следуют ему, используя доступные инструменты внутри среды (браузер, редакторы кода, виртуальные машины и тд).
При регистрации требуется ввести номер телефона, но России в списке нет — выбирайте Казахстан и указывайте российский номер. Правда, пишут, что некоторые операторы связи (Yota и мб другие) не отправляют код, но лучше убедиться в этом самостоятельно.
После регистрации на балансе появится 1000 кредитов (забегая вперед, это около 5 полноценных задач) и 300, которые обновляются ежедневно.
Есть и подписки, предоставляющие больше кредитов. Базовая 19 $ (1 500 ₽) в месяц за 1900 кредитов + 1900 подарочных разово. А PRO за 199 $ (16 000 ₽) предоставит 19 000 кредитов + 19 000 подарочных.
Изначально я не совсем понимал, какие особенности у агентов и с какой стороны к мин подходить. Поэтому заказывать столики в ресторане, как это делают в завирусившихся тиктоках, я не стал. Но и заказывать кроссовки по лучшему соотношению цена/качество сразу отмел, тк не верил, что Manus справится (сам плаваю и приходится попыхтеть).
Поставил задачу "провести анализ научных теорий, которые можно взять за основу сюжета для написания книги в жанре научной фантастики". Промт ниже (лучше на английском, тк многие зарубежные модели обучены в массе своей на английском контенте, а перевод — это доп слой нагрузки).
I would like to write a science fiction book. I need to take a scientific fact or a law or a theory as a basis and build a plot around it. Conduct an analysis of what is the best way to build the plot of the book and give the most popular options with examples.
Manus сам составил план, пошарился по сайтам (внутренний "компьютер" может использовать как браузер, так и редактор кода), каждый шаг, по выполнению, обновлял в плане — в целом, шевелился неплохо. В итоге сформировал несколько markdown-документов: лучшие практики научной фантаскики, примеры и тд.
По кредитам обошлось в 150. По времени минут 5-7.
Далее, я не совсем понял UI и нажал на создание сайта, который мне любезно предоставило всплывающее окно. И вот тут началась чепуха. Чтобы создать обычный статичный сайт, он начал писать python-скрипты, которые должны были создать javascript-файлы, которые прочитают markdown-файлы с подготовленной инфой. Как итог, Manus попыхтел попыхтел и любезно предложил мне ссылку опубликованного сайта, на котором меня ждал пустой начальный "Vite + React" шаблон. Пиу...
Но в скачанном архиве был итоговый html-файл со всей подготовленной информацией. Да, это всё заняло уже 250 кредитов. По времени минут 10-15.
Мнение пока противоречивое. Для вдумчивых текстовых задач с доступом в интернет тот же Perplexity неплохо справляется со своим бесплатным тарифом или бесплатный DeepSeek R1. Что-то более серьезное не особо хочется давать Manus, пока слабо в него верю. 1500р за 1900+1900 кредитов даже как-то много в месяц (10-15 + 10-15 запросов, получается, где-то), не говоря уже о 15к р/мес.
Надо будет еще понаблюдать за ним на бесплатных ежедневных 300 кредитах в разных сценариях. Агенты пока что не впечатлили.
@datum_verde
Please open Telegram to view this post
VIEW IN TELEGRAM