Forwarded from Метаверсошная
Это очень смешно.
ChatGPT не хочет генерить картинки с персонажами, которые защищены копирайтом.
Но если принести ему записку от Сэма Альтмана, то сгенерит.
Когда-то давно такая фигня работала на продавщицах.
Приносишь им записку от родителей типа "0,5 охоты крепкой для меня, Васи, 63го года рождения" - и продавали.
С продавцами лазейку пофиксили небыстро, думаю с ИИ справятся гораздо быстрее.
ChatGPT не хочет генерить картинки с персонажами, которые защищены копирайтом.
Но если принести ему записку от Сэма Альтмана, то сгенерит.
Когда-то давно такая фигня работала на продавщицах.
Приносишь им записку от родителей типа "0,5 охоты крепкой для меня, Васи, 63го года рождения" - и продавали.
С продавцами лазейку пофиксили небыстро, думаю с ИИ справятся гораздо быстрее.
Media is too big
VIEW IN TELEGRAM
Марк Цукерберг показал технологию, которую использует чтобы выглядеть как обычный человек, которая позволяет в риалтайме на vr-очках показывать анимированный аватар, с учётом мимики лица и движения глаз, которые считывают vr-очки.
В основе лежит лайтовый меш лица, поверх которого рендерятся gaussian splats, причем для specular в том числе. Все это с динамическим освещением.
Говорят, моделировать мелкие детали и волосы так быстрее, чем существующими методами.
Интересно, быстрее ли это классического рендеринга.
Подробнее
Пдф
В основе лежит лайтовый меш лица, поверх которого рендерятся gaussian splats, причем для specular в том числе. Все это с динамическим освещением.
Говорят, моделировать мелкие детали и волосы так быстрее, чем существующими методами.
Интересно, быстрее ли это классического рендеринга.
Подробнее
Пдф
Mistral 8x7b, 32k context length has just dropped!
RELEASE a6bbd9affe0c2725c1b7410d66833e24
Ждём q5 gguf 😅
Твит
Код
@derplearning
magnet:?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce
RELEASE a6bbd9affe0c2725c1b7410d66833e24
Ждём q5 gguf 😅
Твит
Код
@derplearning
Рыночная оценка компаний вроде OpenAI должна равняться кол-ву параметров в их топовой модели. Запомните этот твит (с)
This media is not supported in your browser
VIEW IN TELEGRAM
Когда ты лифт, и тебя попросили поработать в выходные
Работающая имплементация mixtral 8x7b в llama!
Первыеробкие бенчмарки конкретно для этого кода на картинке выше.
Возможно, что-то ещё работает не так, но уже хотя бы работает. Ждём официальной имплементации и инструкций по запуску.
Для сравнения, Mistral-7b:
WinoGrande: 75.3%
Arc-c: 55.5%
Gsm8k: 52.1%
Код
Веса на hf
@derplearning
Первые
Возможно, что-то ещё работает не так, но уже хотя бы работает. Ждём официальной имплементации и инструкций по запуску.
Для сравнения, Mistral-7b:
WinoGrande: 75.3%
Arc-c: 55.5%
Gsm8k: 52.1%
Код
Веса на hf
@derplearning
Forwarded from Daily Reposter
This media is not supported in your browser
VIEW IN TELEGRAM
Boston Dynamics demos are getting to the next level!
https://www.businessinsider.com/what-sam-altman-did-so-bad-he-got-fired-openai-2023-12
А вот и тизер второго сезона нашего любимого сериала!
Эсли кратко, то Сэма уволили безобъявления войны предупреждения одним днём потому, что он был настолько расчётливым и манипулятивным, что успел бы дискредитировать всех участников борды, если бы его предупредили заранее.
Что ему и так удалось сделать пост-фактум, поэтому страшно представить, что было бы, если бы он знал ещё и заранее 😅
А вот и тизер второго сезона нашего любимого сериала!
Эсли кратко, то Сэма уволили без
Что ему и так удалось сделать пост-фактум, поэтому страшно представить, что было бы, если бы он знал ещё и заранее 😅
Forwarded from Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
Real-World Humanoid Locomotion with Reinforcement Learning
Долгое время основной проблемой AI в робототехнике был Sim2Real Gap — разница между симуляцией и реальностью. Можно сколь угодно долго тренировать своих ботов в компьютере, но как только они сталкиваются с жесткой реальностью (типа отходняка в субботу) — мало что работает.
Исследователи из Berkeley показали невероятный результат — они смогли обучиться полностью в симуляции, а затем запустить нейронку на реальном роботе (1.6 метра/45 кг). И всё это end-2-end, без ручного программирования логики. Вы можете спросить: «так а чё, Boston Dynamics нас уже 10 лет таким развлекают?». Да, но у них долгое время вся логика была прописана вручную программистами, и это, как вы понимаете, плохо масштабируется. Обучение новому навыку может занимать год. А тут — всё сделано без вмешательства человека от начала и до конца. Это называется Zero-shot transfer (потому что с нулем дополнительных данных мы пренесли навык из симуляции).
Ключевых отличия от прошлых работ 2:
— масштаб сбора данных. Симуляция и обучение происходят на 4 GPU A100 (очень мало по современным меркам. GPT-4, по слухам, обучали на 25'000!) с помощью специального движка Nvidia IsaacGym, и в сутки генерируется больше 10 миллиардов попыток.
— как и принято в Deep Learning, все ручные эвристики убрали, и отдали на откуп Трансформеру: тот видит только состояние среды и действия из прошлого, и предсказывает, что нужно делать дальше (как GPT предсказывает следующее слово, так и этот — действия для конечностей). Никакого хардкода типа «если впереди ступеньки, то замедлись и подними ногу».
Вот вы читаете новость и радуетесь, а Джон Коннор сморит на вас из будущего с гримасой непонимания😂 😳
Долгое время основной проблемой AI в робототехнике был Sim2Real Gap — разница между симуляцией и реальностью. Можно сколь угодно долго тренировать своих ботов в компьютере, но как только они сталкиваются с жесткой реальностью (типа отходняка в субботу) — мало что работает.
Исследователи из Berkeley показали невероятный результат — они смогли обучиться полностью в симуляции, а затем запустить нейронку на реальном роботе (1.6 метра/45 кг). И всё это end-2-end, без ручного программирования логики. Вы можете спросить: «так а чё, Boston Dynamics нас уже 10 лет таким развлекают?». Да, но у них долгое время вся логика была прописана вручную программистами, и это, как вы понимаете, плохо масштабируется. Обучение новому навыку может занимать год. А тут — всё сделано без вмешательства человека от начала и до конца. Это называется Zero-shot transfer (потому что с нулем дополнительных данных мы пренесли навык из симуляции).
Ключевых отличия от прошлых работ 2:
— масштаб сбора данных. Симуляция и обучение происходят на 4 GPU A100 (очень мало по современным меркам. GPT-4, по слухам, обучали на 25'000!) с помощью специального движка Nvidia IsaacGym, и в сутки генерируется больше 10 миллиардов попыток.
— как и принято в Deep Learning, все ручные эвристики убрали, и отдали на откуп Трансформеру: тот видит только состояние среды и действия из прошлого, и предсказывает, что нужно делать дальше (как GPT предсказывает следующее слово, так и этот — действия для конечностей). Никакого хардкода типа «если впереди ступеньки, то замедлись и подними ногу».
Вот вы читаете новость и радуетесь, а Джон Коннор сморит на вас из будущего с гримасой непонимания
Please open Telegram to view this post
VIEW IN TELEGRAM
А вот такое мы любим.
X-adapter для подключения controlnet, lora от 1.5 к сдо хле
Код
За наводку спасибо a s
@derplearning
X-adapter для подключения controlnet, lora от 1.5 к сд
Код
За наводку спасибо a s
@derplearning
Forwarded from AI Для Всех (Kirill)
ChatGPT научился решать судоку
Месяц назад ему такое еще было не под силу. Bard от Google до сих пор не может 🧠
Месяц назад ему такое еще было не под силу. Bard от Google до сих пор не может 🧠
Forwarded from Daily Reposter
This media is not supported in your browser
VIEW IN TELEGRAM
Harry Potter and the stoners philosophy
Forwarded from Denis Sexy IT 🤖
Лол, нашли очередной баг в веб версии GPT4:
При использовании, в ChatGPT, передается текущая системная дата и из-за того, что декабрь месяц праздников, она начала давать ответы короче.
То есть тупо сравнили даты май и декабрь, как часть промпта, и при декабре – ответы на сообщения короче☕️
Автор
При использовании, в ChatGPT, передается текущая системная дата и из-за того, что декабрь месяц праздников, она начала давать ответы короче.
То есть тупо сравнили даты май и декабрь, как часть промпта, и при декабре – ответы на сообщения короче
Автор
Please open Telegram to view this post
VIEW IN TELEGRAM
Derp Learning
Лол, нашли очередной баг в веб версии GPT4: При использовании, в ChatGPT, передается текущая системная дата и из-за того, что декабрь месяц праздников, она начала давать ответы короче. То есть тупо сравнили даты май и декабрь, как часть промпта, и при декабре…
Ты: Пишешь в чатгпт в середине декабря
Чатгпт: давай уже после праздников
Чатгпт: давай уже после праздников