Больше галлюцинаций богу галлюцинаций!
GPT-4o теперь умеет генерить 64К токенов за 1 запрос.
gpt-4o-64k-output-alpha: $6 за 1 млн. токенов на вход и $18 за 1 млн. токенов на выход.
Еще не новый том Войны и Мира за проход, но близко. Уже пару глав могёт.
#OpenAI #GPT
———
@tsingular
GPT-4o теперь умеет генерить 64К токенов за 1 запрос.
gpt-4o-64k-output-alpha: $6 за 1 млн. токенов на вход и $18 за 1 млн. токенов на выход.
Еще не новый том Войны и Мира за проход, но близко. Уже пару глав могёт.
#OpenAI #GPT
———
@tsingular
❤🔥1
Психологи не нужны :)
Запилил GPTшку на Позитив:
https://chatgpt.com/g/g-oQ7cEBY0F-pozitiv
//нужен доступ к OpenAI
#Позитив #GPTs
———
@tsingular
Запилил GPTшку на Позитив:
https://chatgpt.com/g/g-oQ7cEBY0F-pozitiv
//нужен доступ к OpenAI
#Позитив #GPTs
———
@tsingular
🤣6
Forwarded from Сергей Булаев AI 🤖
🤖📚 Посмотрел очередное видео с советами для чего лучше использовать, а для чего не использовать AI. Вот ключевые моменты:
✅ ИИ хорош для:
🗣️ Перевода и генерации текста - черновики постов для соц аккаунтов, небольшие отрывки
📝 Суммаризации контента - мета тексты, категоризация
🐞 Обнаружения спама или оценка качества лидов
🧑💻 Помощи в программировании - CSV формулы, написание различных автоматизаций
🎭 Стилизации текста - типа напиши "в стиле Эдгара По"
❌ ИИ не стоит использовать для (или использовать с большой осторожностью)
🧮 Сложных математических вычислений
🤔 Задач, требующих здравого смысла
😂 Создания юмора
📅 Анализа текущих событий
🧠 Эмоционального интеллекта
💡 ИИ - ассистента, а не замена человека. Он часто выполняет задачу на 60-70%. Избегайте слишком общих задач. Разбивайте их на конкретные, небольшие подзадачи. Всегда должен быть человек, контролирующий результаты работы ИИ.
🔬 Не забывайте о возможных предубеждениях моделей. Одна компания пыталась использовать фотки гольфистов для генерации выдуманных фотографий. ИИ отлично справлялся пока не дошёл до спортсменов с другим цветом кожи, которых он поместил в совершенно другие декорации. Это яркая иллюстрация проблемы предвзятости в ИИ.
Ну и как я обычно говорю всем - эксперименты, эксперименты и эксперименты.
Сергей Булаев AI 🤖 - об AI и не только
✅ ИИ хорош для:
🗣️ Перевода и генерации текста - черновики постов для соц аккаунтов, небольшие отрывки
📝 Суммаризации контента - мета тексты, категоризация
🐞 Обнаружения спама или оценка качества лидов
🧑💻 Помощи в программировании - CSV формулы, написание различных автоматизаций
🎭 Стилизации текста - типа напиши "в стиле Эдгара По"
❌ ИИ не стоит использовать для (или использовать с большой осторожностью)
🧮 Сложных математических вычислений
🤔 Задач, требующих здравого смысла
😂 Создания юмора
📅 Анализа текущих событий
🧠 Эмоционального интеллекта
💡 ИИ - ассистента, а не замена человека. Он часто выполняет задачу на 60-70%. Избегайте слишком общих задач. Разбивайте их на конкретные, небольшие подзадачи. Всегда должен быть человек, контролирующий результаты работы ИИ.
🔬 Не забывайте о возможных предубеждениях моделей. Одна компания пыталась использовать фотки гольфистов для генерации выдуманных фотографий. ИИ отлично справлялся пока не дошёл до спортсменов с другим цветом кожи, которых он поместил в совершенно другие декорации. Это яркая иллюстрация проблемы предвзятости в ИИ.
Ну и как я обычно говорю всем - эксперименты, эксперименты и эксперименты.
Сергей Булаев AI 🤖 - об AI и не только
❤1
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Невероятная работа с эмоциями в MJ и Gen-3.
Я практически не нашел галлюцинаций и косяков, найдет ли кто-нибудь из вас?
Если смотреть на скорости 1.2, то в некоторых шотах уходит бесячий слоумоушен, характерный для img2Vid.
Меня все еще поражает наличие физичности, когда рука касается локона и локон реагирует на воздействие. Я понимаю, что сетка просто это где-то видела, но это совершенно не означает, что это что-то искусственное и не трушное.
Я практически не нашел галлюцинаций и косяков, найдет ли кто-нибудь из вас?
Если смотреть на скорости 1.2, то в некоторых шотах уходит бесячий слоумоушен, характерный для img2Vid.
Меня все еще поражает наличие физичности, когда рука касается локона и локон реагирует на воздействие. Я понимаю, что сетка просто это где-то видела, но это совершенно не означает, что это что-то искусственное и не трушное.
👍2🔥1
Конференция Chatbot 2024: Мир AI-ассистентов
В Сан-Франциско пройдет масштабное мероприятие, посвященное чат-ботам, ChatGPT и голосовым технологиям.
Эксперты из ведущих IT-компаний обсудят:
• Генеративный ИИ и разработку виртуальных помощников
• Конверсационный дизайн и психологию общения с ИИ
• Инструменты создания разговорных интерфейсов
• Аналитику и оптимизацию диалоговых систем
Программа включает доклады, панельные дискуссии и практические воркшопы.
Участники смогут получить сертификаты по NLP/NLU и конверсационному дизайну.
Интересная конфа. Надо будет позже в записи посмотреть.
#Conference #Assistants #SanFrancisco
-------
@tsingular
В Сан-Франциско пройдет масштабное мероприятие, посвященное чат-ботам, ChatGPT и голосовым технологиям.
Эксперты из ведущих IT-компаний обсудят:
• Генеративный ИИ и разработку виртуальных помощников
• Конверсационный дизайн и психологию общения с ИИ
• Инструменты создания разговорных интерфейсов
• Аналитику и оптимизацию диалоговых систем
Программа включает доклады, панельные дискуссии и практические воркшопы.
Участники смогут получить сертификаты по NLP/NLU и конверсационному дизайну.
Интересная конфа. Надо будет позже в записи посмотреть.
#Conference #Assistants #SanFrancisco
-------
@tsingular
Forwarded from эйай ньюз
Extreme Compression of Large Language Models via Additive Quantization
Продолжаем разбирать статьи с ICML. AQLM от Yandex Research — это квантизация, позволяющая вместить 70B модель в консьюмерскую карточку вроде 3090/4090, при этом сохраняя в среднем 95% качества.
Вышло настолько сильно сжать путём использование Additive Quantization - каждый вектор выражается через сумму нескольких других. Работает это в 4 стадии:
1️⃣ Через лучевой поиск находят сочетание векторов из codebook для каждого квантизируемого вектора.
2️⃣ Codebook оптимизируется с помощью Adam.
3️⃣ Тюнят каждый трансформеный блок, чтобы его компоненты могли работать вместе (оптимизация отдельный слоёв блока и самого блока - слегка разные вещи).
4️⃣ С ростом количества токенов на параметр, квантизация становится сложнее. Поэтому для квантизации Llama 3 тюнинга лишь блоков по отдельности стало недостаточно, пришлось тюнить всю модель. Для этого придумали PV-tuning, на замену STE, используемому в обычных методах экстремальной квантизации. Метод сложный, про него есть отдельный пейпер, так что о нём как-то в другой раз.
Результат выходит лучше или на уровне QuIP#, прошлой SOTA техники. Ещё большое достижение тут в достижении Парето-оптимальности модели при квантизации до двух бит: теперь квантизированная до 2 бит 13B модель показывает лучше результаты даже чем полностью несжатая 7B, нечего уже говорить о квантизированной до 4 бит.
Ждём Llama 3.1 405B, квантизированную таким методом (так она сможет влезть в 2xA100, 1xH200 или 6x4090). А пока что есть квантизированные веса кучи моделей: оригинальная Llama 2/3, Mixtral, Command R и т.д.
Квантизированные веса
Пейпер
Код
> Если хотите получше разобраться с базой по квантизации, то вот ликбез курс от Эндрю Ына.
@ai_newz
Продолжаем разбирать статьи с ICML. AQLM от Yandex Research — это квантизация, позволяющая вместить 70B модель в консьюмерскую карточку вроде 3090/4090, при этом сохраняя в среднем 95% качества.
Вышло настолько сильно сжать путём использование Additive Quantization - каждый вектор выражается через сумму нескольких других. Работает это в 4 стадии:
1️⃣ Через лучевой поиск находят сочетание векторов из codebook для каждого квантизируемого вектора.
2️⃣ Codebook оптимизируется с помощью Adam.
3️⃣ Тюнят каждый трансформеный блок, чтобы его компоненты могли работать вместе (оптимизация отдельный слоёв блока и самого блока - слегка разные вещи).
4️⃣ С ростом количества токенов на параметр, квантизация становится сложнее. Поэтому для квантизации Llama 3 тюнинга лишь блоков по отдельности стало недостаточно, пришлось тюнить всю модель. Для этого придумали PV-tuning, на замену STE, используемому в обычных методах экстремальной квантизации. Метод сложный, про него есть отдельный пейпер, так что о нём как-то в другой раз.
Результат выходит лучше или на уровне QuIP#, прошлой SOTA техники. Ещё большое достижение тут в достижении Парето-оптимальности модели при квантизации до двух бит: теперь квантизированная до 2 бит 13B модель показывает лучше результаты даже чем полностью несжатая 7B, нечего уже говорить о квантизированной до 4 бит.
Ждём Llama 3.1 405B, квантизированную таким методом (так она сможет влезть в 2xA100, 1xH200 или 6x4090). А пока что есть квантизированные веса кучи моделей: оригинальная Llama 2/3, Mixtral, Command R и т.д.
Квантизированные веса
Пейпер
Код
> Если хотите получше разобраться с базой по квантизации, то вот ликбез курс от Эндрю Ына.
@ai_newz
SambaNova бьёт рекорды скорости с Llama 3.1
Компания SambaNova Systems установила рекорд производительности на модели Llama 3.1 405B, достигнув 123 токенов в секунду.
Это в 4 раза быстрее ближайших конкурентов благодаря инновационному ASIC-чипу SN40L.
На Llama 3.1 8B система генерирует свыше 1000 токенов в секунду.
Платформа предлагает корпорациям возможность развертывания приватных GPT-моделей с раз дешевле.
https://fast.snova.ai/
Интересный конкурент Groq.
У Groq, кстати 405B пока нет.
API, правда по запросу.
Headquartered in Palo Alto, California, SambaNova Systems was founded in 2017 by industry luminaries, and hardware and software design experts from Sun/Oracle and Stanford University.
Investors include SoftBank Vision Fund 2, funds and accounts managed by BlackRock, Intel Capital, GV, Walden International, Temasek, GIC, Redline Capital, Atlantic Bridge Ventures, Celesta, and several others.
#SambaNova #Llama #ASIC
Компания SambaNova Systems установила рекорд производительности на модели Llama 3.1 405B, достигнув 123 токенов в секунду.
Это в 4 раза быстрее ближайших конкурентов благодаря инновационному ASIC-чипу SN40L.
На Llama 3.1 8B система генерирует свыше 1000 токенов в секунду.
Платформа предлагает корпорациям возможность развертывания приватных GPT-моделей с раз дешевле.
https://fast.snova.ai/
Интересный конкурент Groq.
У Groq, кстати 405B пока нет.
API, правда по запросу.
Headquartered in Palo Alto, California, SambaNova Systems was founded in 2017 by industry luminaries, and hardware and software design experts from Sun/Oracle and Stanford University.
Investors include SoftBank Vision Fund 2, funds and accounts managed by BlackRock, Intel Capital, GV, Walden International, Temasek, GIC, Redline Capital, Atlantic Bridge Ventures, Celesta, and several others.
#SambaNova #Llama #ASIC
👍2
Forwarded from эйай ньюз
Ядро команды состоит из авторов Stable Diffusion, которые покинули Stability-ai в марте. Как я и думал, они ушли и создали свою компанию!
Парни за эти несколько месяцев обучили text2image модель FLUX.1 на 12 B параметров! Которая на сегодня является SOTA моделью в открытом доступе! По предоставленным бенчам бьет даже MJ6!
Кажется, делали FLUX.1 по рецепту SD3, т.к. она имеет очень похожую архитектуру (DiT с двумя стримами - текст и картинка) и также основана на Flow Matching.
FLUX.1 вышла в 3 вариантах:
Доступна только через API:
- https://replicate.com/black-forest-labs
- https://fal.ai/models/fal-ai/flux-pro (дают даже бесплатно потыкать)
Демо:
- https://fal.ai/models/fal-ai/flux/dev
Веса (Non-Commercial License):
- https://huggingface.co/black-forest-labs/FLUX.1-dev
Веса (Apache 2.0 License):
- https://huggingface.co/black-forest-labs/FLUX.1-schnell
Репа с кодом
Блогпост
Следуюшим шагом парни хотят выпустить SOTA text2video в опенсорс.
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Квантовая запутанность в мозге: новая грань нейробиологии
Учёные из Шанхайского университета выдвинули гипотезу о возможности генерации квантовой запутанности нервными волокнами мозга.
Расчёты показывают, что аксоны способны излучать пары запутанных частиц, что может объяснить синхронизацию активности миллионов нейронов.
Это явление потенциально раскрывает механизм координации удалённых участков мозга, описываемый Эйнштейном как "жуткое действие на расстоянии".
Открытие может пролить свет на фундаментальные принципы работы мозга и его удивительную способность к обработке информации.
Похоже, наш мозг - настоящий квантовый компьютер.
Все что мы делаем с ИИ и LLM нужно будет переделывать.
#QuantumBrain #Neuroscience #BrainComputing
-------
@tsingular
Учёные из Шанхайского университета выдвинули гипотезу о возможности генерации квантовой запутанности нервными волокнами мозга.
Расчёты показывают, что аксоны способны излучать пары запутанных частиц, что может объяснить синхронизацию активности миллионов нейронов.
Это явление потенциально раскрывает механизм координации удалённых участков мозга, описываемый Эйнштейном как "жуткое действие на расстоянии".
Открытие может пролить свет на фундаментальные принципы работы мозга и его удивительную способность к обработке информации.
Похоже, наш мозг - настоящий квантовый компьютер.
Все что мы делаем с ИИ и LLM нужно будет переделывать.
#QuantumBrain #Neuroscience #BrainComputing
-------
@tsingular
🔥2🤔1
Baidu создаёт ИИ с самоанализом: конец эпохи 'галлюцинаций'?
Китайский гигант Baidu представил революционную систему самообучения для ИИ.
Новшество решает проблему 'галлюцинаций' - генерации ложной информации языковыми моделями.
Подход включает оценку релевантности, отбор доказательств и анализ рассуждений.
ИИ учится критически оценивать свой процесс мышления и обосновывать выводы.
Система превзошла существующие модели в ответах на вопросы и проверке фактов.
Производительность сопоставима с GPT-4, но при использовании лишь 2000 примеров.
Технология применима в сферах, требующих высокого уровня доверия.
Метод может сделать разработку продвинутых ИИ-систем доступнее для малых компаний.
Меньше ошибок. Полезно.
#Baidu #SelfLearningAI #Hallucinations
------
@tsingular
Китайский гигант Baidu представил революционную систему самообучения для ИИ.
Новшество решает проблему 'галлюцинаций' - генерации ложной информации языковыми моделями.
Подход включает оценку релевантности, отбор доказательств и анализ рассуждений.
ИИ учится критически оценивать свой процесс мышления и обосновывать выводы.
Система превзошла существующие модели в ответах на вопросы и проверке фактов.
Производительность сопоставима с GPT-4, но при использовании лишь 2000 примеров.
Технология применима в сферах, требующих высокого уровня доверия.
Метод может сделать разработку продвинутых ИИ-систем доступнее для малых компаний.
Меньше ошибок. Полезно.
#Baidu #SelfLearningAI #Hallucinations
------
@tsingular
👍4❤1🤔1
Forwarded from AlexRedSec
Свежая кривая хайпа по технологиям безопасности приложений (Application Security) от Gartner🔔
Традиционно очень много текста, а почитать можно тут.
Кратко из того, что бросилось в глаза:
🔼 Ожидаемый ажиотаж вокруг безопасности ИИ, ассистентов для написания кода и технологий анализа достижимости (Reachability Analysis).
🔽 Software Bill of Materials (SBOM) и Application Security Posture Management (ASPM) пошли на спад.
❓ Policy-as-Code неожиданно заявлена как инновация, хотя как минимум три года уже на слуху...
💬 DevSecOps вышел на плато продуктивности... Здесь традиционный спор, а технология ли это? В моём понимании это всё же методология и практики🤔
#hypercycle #appsec #gartner
Традиционно очень много текста, а почитать можно тут.
Кратко из того, что бросилось в глаза:
#hypercycle #appsec #gartner
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Адель и МЛь
У Лекса Фридмана вышло интервью с командой Neuralink и Илоном Максом на 8.5 часов. Блин, восемь с половиной часов Фридмана, как это выдержать?
https://youtu.be/Kbk9BiPhm7o?si=GWKKRF-T9reRV-DL
https://youtu.be/Kbk9BiPhm7o?si=GWKKRF-T9reRV-DL
YouTube
Elon Musk: Neuralink and the Future of Humanity | Lex Fridman Podcast #438
Elon Musk is CEO of Neuralink, SpaceX, Tesla, xAI, and CTO of X. DJ Seo is COO & President of Neuralink. Matthew MacDougall is Head Neurosurgeon at Neuralink. Bliss Chapman is Brain Interface Software Lead at Neuralink. Noland Arbaugh is the first human to…
Тепловая карта релизов моделей на Hugging Face
Пользователь cfahlgren1 представил Model Release Heatmap - визуализацию релизов моделей известных лабораторий на движке платформы Hugging Face Spaces.
Проект демонстрирует динамику выпуска различных моделей машинного обучения в формате интерактивной тепловой карты.
Теперь можно увидеть, как часто рождаются новые нейросети. Скоро придется обновлять каждый день! 🚀🧠
#HuggingFace #ModelRelease #Visualization
-------
@tsingular
Пользователь cfahlgren1 представил Model Release Heatmap - визуализацию релизов моделей известных лабораторий на движке платформы Hugging Face Spaces.
Проект демонстрирует динамику выпуска различных моделей машинного обучения в формате интерактивной тепловой карты.
Теперь можно увидеть, как часто рождаются новые нейросети. Скоро придется обновлять каждый день! 🚀🧠
#HuggingFace #ModelRelease #Visualization
-------
@tsingular
👍1
Forwarded from Анализ данных (Data analysis)
GitHub представил новый маркетплейс моделей машинного обучения под названием Models, который претендует на конкуренцию с Hugging Face.
Проект пока в тестировании, но вы можете записаться в лист ожидания.
Ключевые преимущества Models: возможность протестировать нейронную сеть в песочнице перед переносом кода в VS Code или Codespaces, а также интеграция с Azure и другими популярными сервисами для разработчиков.
На платформе уже доступно более 20 нейросетей, включая GPT-4o, GPT-4o mini и Llama 3.1. Библиотека будет регулярно пополняться, и разработчики смогут добавлять свои модели.
▪ Github
@data_analysis_ml
Проект пока в тестировании, но вы можете записаться в лист ожидания.
Ключевые преимущества Models: возможность протестировать нейронную сеть в песочнице перед переносом кода в VS Code или Codespaces, а также интеграция с Azure и другими популярными сервисами для разработчиков.
На платформе уже доступно более 20 нейросетей, включая GPT-4o, GPT-4o mini и Llama 3.1. Библиотека будет регулярно пополняться, и разработчики смогут добавлять свои модели.
▪ Github
@data_analysis_ml
👍4
MIT создаёт новое железо для сверхбыстрого ИИ
Учёные Массачусетского технологического института разработали инновационное аппаратное обеспечение для ускорения вычислений в сфере ИИ.
Ключевой элемент - программируемые резисторы на основе фосфоросиликатного стекла, совместимые с кремниевыми технологиями.
Устройства работают в миллион раз быстрее предшественников и синапсов мозга, потребляя меньше энергии.
Технология позволяет создавать компоненты нанометрового масштаба, устойчивые к миллионам циклов работы.
Применение: беспилотные авто, обнаружение мошенничества, анализ медицинских снимков.
И потом еще квантовую запутанность прикрутят и тогда будет ASI 🤖🧠
#MIT #HardwareInnovation #AnalogComputing
-------
@tsingular
Учёные Массачусетского технологического института разработали инновационное аппаратное обеспечение для ускорения вычислений в сфере ИИ.
Ключевой элемент - программируемые резисторы на основе фосфоросиликатного стекла, совместимые с кремниевыми технологиями.
Устройства работают в миллион раз быстрее предшественников и синапсов мозга, потребляя меньше энергии.
Технология позволяет создавать компоненты нанометрового масштаба, устойчивые к миллионам циклов работы.
Применение: беспилотные авто, обнаружение мошенничества, анализ медицинских снимков.
И потом еще квантовую запутанность прикрутят и тогда будет ASI 🤖🧠
#MIT #HardwareInnovation #AnalogComputing
-------
@tsingular
🔥4
Forwarded from Data Secrets
Тем временем еще двое бывших инженеров Google со своим стартапом строят планы перещеголять Nvidia
Компания занимается разработкой ИИ-чипов, называется Groq (как тебе такое, Илон Маск?) и сейчас оценивается в $2.8 миллиарда. Недавно стало известно, что они привлекли $640 миллионов новых вложений.
Кроме новости про инвестиции также появилась новость о том, что в качестве нового тех.консультанта у Groq выступит Ян Лекун, а в качестве COO – Стюард Панн, бывший директор тех.производства Intel и ex-CIO HP😮
Сейчас компания занимается чипом нового поколения LPU (language processing unit). Как вы понимаете, специально для LLM. Обещают х10 к скорости инференса и выпуск в Q1 2025.
Компания занимается разработкой ИИ-чипов, называется Groq (как тебе такое, Илон Маск?) и сейчас оценивается в $2.8 миллиарда. Недавно стало известно, что они привлекли $640 миллионов новых вложений.
Кроме новости про инвестиции также появилась новость о том, что в качестве нового тех.консультанта у Groq выступит Ян Лекун, а в качестве COO – Стюард Панн, бывший директор тех.производства Intel и ex-CIO HP
Сейчас компания занимается чипом нового поколения LPU (language processing unit). Как вы понимаете, специально для LLM. Обещают х10 к скорости инференса и выпуск в Q1 2025.
Please open Telegram to view this post
VIEW IN TELEGRAM