Технозаметки Малышева
10.1K subscribers
4.14K photos
1.51K videos
41 files
4.26K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
🧬 Ошеломительные #AINews: новый квантовый компьютер от Google решает задачу за 6 секунд, на которую у любого самого мощного компьютера в мире ушло бы 47 лет!

Сообщается, что Google совершила значительный скачок в области квантовых вычислений, разработав квантовый компьютер, который может выполнять вычисления за считанные секунды, на обработку которых самым передовым в мире суперкомпьютерам потребовалось бы почти полвека.
Новость, сообщенная Daily Telegraph, может означать знаменательный момент в эволюции этой новой технологии.

Очередной шаг к сингулярности, в которой зловещий Скайнет способен мгновенно вскрыть любые шифры, манипулировать мировыми финансовыми рынками и воспроизводить себе подобных. Вот и спите теперь с этим. Спокойной ночи! 🌙

🧩 #КвантовыеТехнологии
Вчера вышел новый Bard.
штош.. 8 месяцев Google не может догнать OpenAI
Недавнее обновление Code Interpreter может написать игру крестики-нолики по 1 запросу.

посмотреть можно тут:
https://tinyurl.com/tttoe1
Forwarded from 42 секунды
Semafor: Илон Маск обещает ведущим исследователям ИИ девятизначную сумму за работу в xAI

– Он стремится привлечь лучших специалистов ИИ для xAI
– Оценка xAI по мнению Маска уже составляет $20 млрд
– Т.е. каждый опцион на 1% акций дает бонус на $200 млн
– Усилия Маска по набору специалистов проходят успешно
– Например, xAI привлекла сотрудников Google и DeepMind

@ftsec
This media is not supported in your browser
VIEW IN TELEGRAM
Китай выпустил ролик про роботов в армии.
Microsoft Research:
LONGNET - вариант трансформера, способный масштабировать длину последовательности до более чем 1 миллиарда токенов, не жертвуя при этом производительностью на более коротких последовательностях.
Преимущества LongNet:
1) обладает линейной вычислительной сложностью и логарифмической зависимостью между токенами;
2) может служить распределенным тренером для чрезвычайно длинных последовательностей;
3) расширенное внимание является заменой стандартного внимания, которое можно бесшовно интегрировать с существующей оптимизацией на основе трансформера.
Результаты экспериментов показывают, что LONGNET обеспечивает высокую производительность как для моделирования длинных последовательностей, так и для общих задач обработки языка.
Это позволит например, обрабатывать весь Интернет как последовательность.
Код доступен по адресу https://aka.ms/LongNet.
🧬 Новость для размышлений под чашечку утреннего кофе: собственно, ничего нового - #ИскусственныйИнтеллект опять отобрал рабочие места, на этот раз в Индии.

Стартап-разработчик программного обеспечения из Индии Dukaan для создания интернет-магазинов сократила расходы на 85%, уволив 90% сотоудников, а сами клиенты перестали ждать ответа оператора. Чат-бот значительно сократил время решения проблемы с 2 часов до 3 минут.

Теперь клиенты получают ответ меньше чем за секунду, в то время как раньше им приходилось ждать 1 минуту и 44 секунды.

Отличный пример того, как современные технологии ИИ поднимают экономическую эффективность и безработицу на новые уровни.🤷 Хорошего вам дня!

🧩 #AINews
Forwarded from Code Learning
Rytr

поможет создавать идеи для контента с применением технологий ИИ. Создает идеи для топиков, блогов, названий продуктов/компаний, помогает писать письма и придумать общий стиль и идею проекта. Для старта достаточно зайти нажать “start ryting”.

⤷ Ознакомиться на сайте

Code Learning | #Projects
🧬 Удивительные и уже даже не удивительные вещи, под чашечку утреннего кофе.☕️

ИИ переводит клинописи, возраст которых 5 тысяч лет, по щелчку мыши.

Речь идет о глиняных табличках, написанных на архаичном языке Древней Месопотамии – аккадском. На нем никто не писал и не говорил уже более двух тысяч лет. Всего табличек найдено около полумиллиона, но перевести на современные языки удалось пока очень мало, потому что специалистов раз два и обчелся. Впрочем, израильские ученые обучили #ИскусственныйИнтеллект переводить эти клинописи буквально по щелчку мыши, как гугл-переводчик.🔥

В настоящее время эта модель доступна в онлайн-блокноте, исходный код можно найти на GitHub по адресу Akkademia. Чтобы сделать платформу широко доступной, создатели внедрили её функциональные возможности в онлайн-приложение под названием Babylonian Engine.

Ух, чувствую, что скоро человечество узнает о себе много нового.) С добрым утром, ИИнтеллектуалы!☀️

🧩 #AINews
Please open Telegram to view this post
VIEW IN TELEGRAM
Майкрософт запускает Bing Chat Enterprise.

Bing Chat Enterprise - это чат для комапаний, позволяющий работать с данными в защищённой среде.
Дополнительная функция Visual Search - ищет в интернете всю связанную информацию.
Доступен в режиме предпросмотра в пакетах Microsoft 365 E3, E5, Business Standard и Business Premium без дополнительной платы.

Отдельно в будущем будет стоить $5 на пользователя в месяц.
Microsoft 365 Copilot будет стоить $30 на пользователя в месяц.
aka.ms/bingchatenterprise
Microsoft и Meta объявили о поддержке больших языковых моделей Llama 2 на Azure и Windows.
Разработчики могут настраивать и развертывать модели Llama 2 на Azure, а также использовать Llama локально на Windows. Это расширяет возможности для создания новых AI-приложений и улучшает каталог моделей Azure AI.
Службы безопасности AI, такие как Azure AI Content Safety, помогают обеспечивать безопасность при использовании этих моделей.

aka.ms/metallama2
пример как Co-Pilot оптимизирует процесс продаж через process mining

https://cloudblogs.microsoft.com/powerplatform/2023/07/18/microsoft-launches-power-automate-process-mining-and-next-generation-ai/
Forwarded from CodeCamp
Оказалось, что ChatGPT за последнее время сильно отупел. Если верить исследованию чуваков из Стенфорда и Калифорнии, то за последние три месяца возможности ИИ сильно сократились.

Так, например, теперь GPT-4 пишет готовый код всего в 10% случаев (вместо 52% ранее). Среди главных причин называют две: либо OpenAI что-то мутят с серверами и ищут пути сэкономить, либо ChatGPT учится у людей и тупеет.
Интересный проект Petals
LLM на торрент технологии с потенциалом интеграции криптовалют.
описание:
https://research.yandex.com/blog/petals-decentralized-inference-and-finetuning-of-large-language-models

Ролик с разъяснениями:
https://www.youtube.com/watch?v=8jEGVaRKmFc
Forwarded from Градиент обреченный (Sergei Averkiev)
🔺 ruGPT-3.5. Открытая русскоязычная LLM от Сбера

Друзья, мы выложили в open source нашу языковую модель (pretrain), на основе которой обучали GigaChat!

🔸 Претрейн довольно большой — 13B (13 миллиардов параметров). Модель видела много разнообразного текста (книги, статьи, чаты и т.д.), в основном на русском языке, а также на английском (около10%). Дополнительно дообучали на коде.

🔸 ruGPT-3.5 13B можно дообучать на инструктивных датасетах и получать свои версии ChatGPT, которые бы хорошо понимали русский язык.

🔸 Решили выложить с открытой лицензией (MIT), так что каких-либо ограничений в этом плане в отличии от LLaMA нет.

Написали небольшой пост про это, прошу поддержать, кому интересно.

👉 Хабр | Hugging Face
Новая функция chatGPT: "Специальные инструкции".
Позволяет давать ChatGPT специальные запросы или контекст в рамках последующей беседы.
Например:
- уточнение экспертизы: сообщение о вашем уровне знаний в определенной области, чтобы избегать ненужных объяснений.
- Изучение языка: поиск практики ведения бесед с коррекцией грамматики.
- Локализация: установка контекста в долгосрочной перспективе как юриста, действующего в рамках специфических законов своей страны.
- Написание романов: использование описаний персонажей для помощи ChatGPT в поддержании последовательного понимания истории персонажей в ходе развития сюжета.
- форматирование: инструкции для ChatGPT с тем, чтобы выводить обновления кода в единообразном формате.
- Персонализация стиля письма: применение того же голоса и стиля, что и в предоставленных письмах, ко всем будущим запросам на написание писем.

https://openai.com/blog/custom-instructions-for-chatgpt
🧬 Университет Монтаны провёл исследование, в котором сравнил творческие возможности машины и студентов. По итогам, было обнаружено, что ИИ, в частности GPT-4, соответствует 1% лучших мыслителей-людей по стандартному тесту на креативность. Приложение для искусственного интеллекта #ChatGPT, разработанное с использованием GPT-4, продемонстрировало беглость и оригинальность в тестах творческого мышления Торранса- широко признанном инструменте оценки креативности.

⚡️Это, без преувеличения, прорывное открытие указывает на то, что ИИ, возможно, развивает творческие способности наравне с человеческими возможностями или даже превосходит их.🤷

🧩 #AINews
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
🧬 Чтобы вы не заскучали на выходных, предлагаю с пользой побаловаться, юзая вот такую универсальную 10-ку для разных занятий. Естественно, #ИскусственныйИнтеллект рулит:

1. Postwise.AI — автор твитов;
2. Stockimg.AI — крутой дизайнер логотипов с ИИ;
3. Boomy.com — гннератор музыки;
4. Flowcv.com — генератор резюме;
5. Teleporthq.io - конструктор сайтов;
6. Franks.ai — поисковая система;
7. Descript.com — видеоредактор;
8. Namewizard.ai — поисковик доменов AI;
9. Phrasee.com — маркетолог;
10. Изюминка пятницы - сервис для пьяных пятничных вечеринок Rave.DJ для микса песен между собой, годные мешапы гарантированы (на видео).

🧩 #КаталогНейросетей
👍1
Forwarded from эйай ньюз
🔥Meta зарелизила набор моделей LLaMa-2-Chat разного размера!

Это огромное событие в мире опенсоурса и науки. Коллеги из LLM отдела GenAI выпустили бомбу! LLaMa-2 на 70B параметров сравнима по качетству с GPT-3.5 и даже лучше ее на некоторых бенчмарках.

Это, кстати, первая модель такого размера, затюненая c помощью RLHF, и которую выложили для коммерческого использования БЕСПЛАТНО. Запросить ссылку на скачивание можно тут.

Наконец-то, на базе LLaMa-2-Chat можно строить свои локальные аналоги ChatGPT и не отсылать никаких данных в OpenAI.

LLaMa 2-Chat сравнима по качеству с ChatGPT-3.5 по метрикам human eval, а, например, на математических задачах - даже лучше.

Размер контекста: 4к.
Тренировались модели на 2 триллионах токенов, что в два раза больше чем LLaMa 1.

Больше подробностей в статье

@ai_newz