Технозаметки Малышева
9.19K subscribers
3.98K photos
1.47K videos
41 files
4.13K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Hugging Face и NVIDIA ускоряют инференс ИИ-моделей

NVIDIA открыли NIM для разработчиков и сразу Hugging Face представил новый сервис инференса, работающий на базе NIM и DGX Cloud.

Через HF разработчики получат быстрый доступ к NIM и возможность быстро поднимать и тестировать популярные модели.
Работает всё на DGX Cloud, - за счёт этого гибкая масштабируемость GPU-ресурсов.

Простота и скорость, - за что уважаю HF.

#HuggingFace #NVIDIA #NIM
-------
@tsingular
❤‍🔥2
Amazon разрабатывает собственные ИИ чипы

Корпорация Amazon разрабатывает собственные AI-процессоры, стремясь снизить зависимость от Nvidia.
Цель - предоставить клиентам более доступные варианты для сложных вычислений.

После приобретения Annapurna Labs, Amazon уже выпускает чипы Graviton, Trainium и Inferentia.

Компания заявляет о 40-50% преимуществе в соотношении цена/производительность по сравнению с решениями Nvidia.

На недавнем Prime Day Amazon задействовала 250 000 Graviton и 80 000 AI-чипов собственного производства.

Параллельно OpenAI партнёрится с Broadcom:
https://www.ixbt.com/news/2024/07/28/openai-broadcom-nvidia-700.html
Microsoft тоже пилит свои:
https://habr.com/ru/companies/ru_mts/articles/775692/
и Google:
https://lenta.ru/news/2024/04/10/axion/

Все пытаются запускать свои линейки, но продолжают потреблять Nvidia гигантскими объёмами.

#Amazon #Nvidia #AIchips
-------
@tsingular
Canva покупает Leonardo.AI

Австралийский стартап Canva приобрел компанию Leonardo.AI, специализирующуюся на генеративном искусственном интеллекте.
Сделка позволит интегрировать ИИ-инструменты для создания изображений и видео в популярную платформу для дизайна.
Пользователи смогут генерировать контент по текстовым запросам в выбранной эстетике и обучать модели на собственных данных.
Это отражает растущий тренд использования ИИ в индустрии дизайна и создания контента.
Ожидается, что глобальный рынок ИИ-инструментов для дизайна вырастет с 4,4 млрд $ в 2023 году до 26,5 млрд $ к 2033 году.

Скоро дизайнеры будут не рисовать, а писать промпты. 🎨✍️

#Canva #LeonardoAI #GenerativeAI
-------
@tsingular
👍2
ИИ-ассистенты захватывают финансовый мир

Крупнейшие финансовые гиганты внедряют генеративный ИИ в свои процессы.
JPMorgan Chase запустил чат-бот LLM Suite для работы с документами.
Morgan Stanley представил Debrief - программу для обработки клиентских звонков.
ИИ-инструменты экономят аналитикам до 4 часов ежедневно.
98% финансовых консультантов Morgan Stanley уже используют ИИ-ассистентов.
Технологии применяются для привлечения клиентов, инвестиционных рекомендаций и автоматизации.
JPMorgan оценивает дополнительную стоимость от ИИ в $1-1,5 млрд.

#WallStreet #JPMorgan #MorganStanley
-------
@tsingular
🔥2
Британское правительство ищет промпт-инженера

Институт безопасности ИИ (AISI) при правительстве Великобритании открыл вакансию старшего промпт-инженера.
Цель - предотвращение катастрофических рисков от автономных систем искусственного интеллекта.
Задачи включают выявление опасных возможностей передовых моделей и улучшение их способности раскрывать критическую информацию.

Требуется опыт работы с крупномасштабными языковыми моделями, навыки программирования на Python и знание инструментов машинного обучения.

Кандидат будет сотрудничать с экспертами в областях химии, биологии, кибербезопасности и социальных наук.

Похоже, правительства начинают всерьез задумываться о рисках ИИ.

#PromptEngineering #AISafety #AISI
-------
@tsingular
3
Forwarded from Machinelearning
🌟 Meta-Llama-3.1-405B-Instruct-FP8: FP8-версии Llama-3.1-405B-Instruct со статическим и динамическим методом квантования.

Компания Neural Magic представила две квантованные FP8-версии модели Meta's Llama 3.1 405B Instruct:

🟢Meta-Llama-3.1-405B-Instruct-FP8-dynamic
🟢Meta-Llama-3.1-405B-Instruct-FP8

Примененная оптимизация уменьшает количество бит на параметр с 16 до 8, сокращая требования к VRAM примерно на 50 %. FP8-модель может быть развернута помощью одного узла 8xH100 GPU.

Процесс квантования применялся исключительно к весам и активациям линейных операторов внутри блоков трансформеров. Использовалось симметричное поканальное квантование, которое включает линейное масштабирование по выходному измерению для отображения представлений FP8 квантованных весов и активаций.
Кроме того, активации квантованы динамически на основе каждого токена.
Для квантования использовалась библиотека оптимизации LLM Compressor с набором 512 последовательностей UltraChat.

Обе FP8 модели сохраняют архитектуру Meta-Llama-3.1 и могут быть запущены на бэкенде vLLM.

В бенчмарке OpenLLM версия FP8-dynamic получила средний балл 86,55. Это максимально близко к результату оригинальной модели - 86,63 (99,91%).

🟡Модель FP8-dynamic на HF
🟡Модель FP8 на HF


@ai_machinelearning_big_data

#AI #ML #LLM #Llama #FP8
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Робот-пёс Go2: новый уровень интеллекта от Unitree

Компания Unitree представила инновационного робота-собаку Go2, оснащённого передовыми технологиями:
4D LIDAR с обзором 360°x90° для улучшенного восприятия окружения
Продвинутый ИИ-режим с усовершенствованной походкой и навигацией
• Максимальная скорость 5 м/с, крутящий момент суставов до 45 Н·м
• Поддержка Wi-Fi 6, Bluetooth и 4G
• Автономность 2-4 часа, вес около 15 кг, грузоподъёмность до 12 кг
8-ядерный CPU, HD-камера, датчики силы на лапах
• Функции голосового управления и OTA-обновления
Доступны три модификации для различных сфер применения.

При просмотре ролика только одна мысль, - пусть это будет компьютерная графика!

#Unitree #robotics #Go2
2
Больше галлюцинаций богу галлюцинаций!

GPT-4o теперь умеет генерить 64К токенов за 1 запрос.

gpt-4o-64k-output-alpha: $6 за 1 млн. токенов на вход и $18 за 1 млн. токенов на выход.

Еще не новый том Войны и Мира за проход, но близко. Уже пару глав могёт.

#OpenAI #GPT
———
@tsingular
❤‍🔥1
Психологи не нужны :)

Запилил GPTшку на Позитив:
https://chatgpt.com/g/g-oQ7cEBY0F-pozitiv
//нужен доступ к OpenAI

#Позитив #GPTs
———
@tsingular
🤣6
🤖📚 Посмотрел очередное видео с советами для чего лучше использовать, а для чего не использовать AI. Вот ключевые моменты:

ИИ хорош для:

🗣️ Перевода и генерации текста - черновики постов для соц аккаунтов, небольшие отрывки
📝 Суммаризации контента - мета тексты, категоризация
🐞 Обнаружения спама или оценка качества лидов
🧑‍💻 Помощи в программировании - CSV формулы, написание различных автоматизаций
🎭 Стилизации текста - типа напиши "в стиле Эдгара По"

ИИ не стоит использовать для (или использовать с большой осторожностью)

🧮 Сложных математических вычислений
🤔 Задач, требующих здравого смысла
😂 Создания юмора
📅 Анализа текущих событий
🧠 Эмоционального интеллекта

💡 ИИ - ассистента, а не замена человека. Он часто выполняет задачу на 60-70%. Избегайте слишком общих задач. Разбивайте их на конкретные, небольшие подзадачи. Всегда должен быть человек, контролирующий результаты работы ИИ.

🔬 Не забывайте о возможных предубеждениях моделей. Одна компания пыталась использовать фотки гольфистов для генерации выдуманных фотографий. ИИ отлично справлялся пока не дошёл до спортсменов с другим цветом кожи, которых он поместил в совершенно другие декорации. Это яркая иллюстрация проблемы предвзятости в ИИ.

Ну и как я обычно говорю всем - эксперименты, эксперименты и эксперименты.

Сергей Булаев AI 🤖 - об AI и не только
1
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Невероятная работа с эмоциями в MJ и Gen-3.

Я практически не нашел галлюцинаций и косяков, найдет ли кто-нибудь из вас?
Если смотреть на скорости 1.2, то в некоторых шотах уходит бесячий слоумоушен, характерный для img2Vid.

Меня все еще поражает наличие физичности, когда рука касается локона и локон реагирует на воздействие. Я понимаю, что сетка просто это где-то видела, но это совершенно не означает, что это что-то искусственное и не трушное.
👍2🔥1
Конференция Chatbot 2024: Мир AI-ассистентов

В Сан-Франциско пройдет масштабное мероприятие, посвященное чат-ботам, ChatGPT и голосовым технологиям.
Эксперты из ведущих IT-компаний обсудят:
• Генеративный ИИ и разработку виртуальных помощников
• Конверсационный дизайн и психологию общения с ИИ
• Инструменты создания разговорных интерфейсов
• Аналитику и оптимизацию диалоговых систем
Программа включает доклады, панельные дискуссии и практические воркшопы.
Участники смогут получить сертификаты по NLP/NLU и конверсационному дизайну.

Интересная конфа. Надо будет позже в записи посмотреть.

#Conference #Assistants #SanFrancisco
-------
@tsingular
Forwarded from эйай ньюз
Extreme Compression of Large Language Models via Additive Quantization

Продолжаем разбирать статьи с ICML. AQLM от Yandex Research — это квантизация, позволяющая вместить 70B модель в консьюмерскую карточку вроде 3090/4090, при этом сохраняя в среднем 95% качества.

Вышло настолько сильно сжать путём использование Additive Quantization - каждый вектор выражается через сумму нескольких других. Работает это в 4 стадии:

1️⃣ Через лучевой поиск находят сочетание векторов из codebook для каждого квантизируемого вектора.

2️⃣ Codebook оптимизируется с помощью Adam.

3️⃣ Тюнят каждый трансформеный блок, чтобы его компоненты могли работать вместе (оптимизация отдельный слоёв блока и самого блока - слегка разные вещи).

4️⃣ С ростом количества токенов на параметр, квантизация становится сложнее. Поэтому для квантизации Llama 3 тюнинга лишь блоков по отдельности стало недостаточно, пришлось тюнить всю модель. Для этого придумали PV-tuning, на замену STE, используемому в обычных методах экстремальной квантизации. Метод сложный, про него есть отдельный пейпер, так что о нём как-то в другой раз.

Результат выходит лучше или на уровне QuIP#, прошлой SOTA техники. Ещё большое достижение тут в достижении Парето-оптимальности модели при квантизации до двух бит: теперь квантизированная до 2 бит 13B модель показывает лучше результаты даже чем полностью несжатая 7B, нечего уже говорить о квантизированной до 4 бит.

Ждём Llama 3.1 405B, квантизированную таким методом (так она сможет влезть в 2xA100, 1xH200 или 6x4090). А пока что есть квантизированные веса кучи моделей: оригинальная Llama 2/3, Mixtral, Command R и т.д.

Квантизированные веса
Пейпер
Код

> Если хотите получше разобраться с базой по квантизации, то вот ликбез курс от Эндрю Ына.

@ai_newz
SambaNova бьёт рекорды скорости с Llama 3.1

Компания SambaNova Systems установила рекорд производительности на модели Llama 3.1 405B, достигнув 123 токенов в секунду.

Это в 4 раза быстрее ближайших конкурентов благодаря инновационному ASIC-чипу SN40L.

На Llama 3.1 8B система генерирует свыше 1000 токенов в секунду.

Платформа предлагает корпорациям возможность развертывания приватных GPT-моделей с раз дешевле.

https://fast.snova.ai/

Интересный конкурент Groq.
У Groq, кстати 405B пока нет.
API, правда по запросу.

Headquartered in Palo Alto, California, SambaNova Systems was founded in 2017 by industry luminaries, and hardware and software design experts from Sun/Oracle and Stanford University.

Investors include SoftBank Vision Fund 2, funds and accounts managed by BlackRock, Intel Capital, GV, Walden International, Temasek, GIC, Redline Capital, Atlantic Bridge Ventures, Celesta, and several others.

#SambaNova #Llama #ASIC
👍2
Forwarded from эйай ньюз
🔥Black Forest Labs: новая лаба, которая будет двигать опенсорс image и видео генерацию! И новая SOTA 12B t2i модель!

Ядро команды состоит из авторов Stable Diffusion, которые покинули Stability-ai в марте. Как я и думал, они ушли и создали свою компанию!

Парни за эти несколько месяцев обучили text2image модель FLUX.1 на 12 B параметров! Которая на сегодня является SOTA моделью в открытом доступе! По предоставленным бенчам бьет даже MJ6!

Кажется, делали FLUX.1 по рецепту SD3, т.к. она имеет очень похожую архитектуру (DiT с двумя стримами - текст и картинка) и также основана на Flow Matching.

FLUX.1 вышла в 3 вариантах:

1️⃣ FLUX.1 [pro]: СОТА модель на 12B параметром. Все как надо - хорошая детализация изображений и фледование промпту, разные стили.
Доступна только через API:
- https://replicate.com/black-forest-labs
- https://fal.ai/models/fal-ai/flux-pro (дают даже бесплатно потыкать)

2️⃣FLUX.1 [dev]: Это дистиллированная чезе Guidance Distillation модель FLUX.1 [pro], которая в ~2 раза быстрее оригинала, и выдает почти такое же качество.
Демо:
- https://fal.ai/models/fal-ai/flux/dev
Веса (Non-Commercial License):
- https://huggingface.co/black-forest-labs/FLUX.1-dev

3️⃣ FLUX.1 [schnell]: Это быстра версия. По все видимости, это дистиллированная с помощью LADD (пост) модель FLUX.1 [pro], которая работает за малое число шагов (от 1 до 12), но с качеством похуже.
Веса (Apache 2.0 License):
- https://huggingface.co/black-forest-labs/FLUX.1-schnell

Репа с кодом
Блогпост

Следуюшим шагом парни хотят выпустить SOTA text2video в опенсорс.

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Квантовая запутанность в мозге: новая грань нейробиологии

Учёные из Шанхайского университета выдвинули гипотезу о возможности генерации квантовой запутанности нервными волокнами мозга.
Расчёты показывают, что аксоны способны излучать пары запутанных частиц, что может объяснить синхронизацию активности миллионов нейронов.
Это явление потенциально раскрывает механизм координации удалённых участков мозга, описываемый Эйнштейном как "жуткое действие на расстоянии".
Открытие может пролить свет на фундаментальные принципы работы мозга и его удивительную способность к обработке информации.

Похоже, наш мозг - настоящий квантовый компьютер.
Все что мы делаем с ИИ и LLM нужно будет переделывать.

#QuantumBrain #Neuroscience #BrainComputing
-------
@tsingular
🔥2🤔1
Baidu создаёт ИИ с самоанализом: конец эпохи 'галлюцинаций'?

Китайский гигант Baidu представил революционную систему самообучения для ИИ.
Новшество решает проблему 'галлюцинаций' - генерации ложной информации языковыми моделями.
Подход включает оценку релевантности, отбор доказательств и анализ рассуждений.
ИИ учится критически оценивать свой процесс мышления и обосновывать выводы.
Система превзошла существующие модели в ответах на вопросы и проверке фактов.
Производительность сопоставима с GPT-4, но при использовании лишь 2000 примеров.
Технология применима в сферах, требующих высокого уровня доверия.
Метод может сделать разработку продвинутых ИИ-систем доступнее для малых компаний.

Меньше ошибок. Полезно.

#Baidu #SelfLearningAI #Hallucinations
------
@tsingular
👍41🤔1