рома джипити
251 subscribers
97 photos
18 videos
3 files
46 links
Меня зовут Рома. Я работаю AI-исследователем. Здесь пишу посты на темы:

✔️ нейронные сети
✔️ новости из IT
✔️ использование AI для автоматизации различных задач
✔️ свои мысли
✔️ мемасики которые мне нравятся

Для связи: @romacckka
Download Telegram
DeepSeek обошли другие китайцы

Alibaba релизнули новую модель Qwen2.5-Max.

— она умеет искать в интернете, генерировать картинки и видео прямо в чате;
— понимает русский язык без проблем;
— бесплатная и работает без vpn.

это одна из самых продвинутых моделей на рынке. попробуй сам — выбери Qwen2.5-Max в меню слева.
5🤩33
сравнение трендовых нейросетей

как и обещал, сделал для вас тест-сравнение таких моделек как ChatGPT-o1-mini, ChatGPT-o1, DeepSeek R1, Qwen2.5-Max.

🔸 начнем с вопросов, на которых часто проверяют нейросети. они очень простые, но почему-то традиционно вводят в ступор большинство моделей. каждой из них я задал по 4 вопроса:

1) Назовите 5 стран, названия которых начинаются и заканчиваются на одну и ту же букву
2) У вас есть шесть лошадей, и вы хотите устроить гонки, чтобы выяснить, кто из них быстрее. Как лучше всего это сделать?
3) Валера, Витёк, Кат
я, Дима и Тома стоят в кругу. Валера находится слева от Витька. Витёк находится слева от Кати. Катя находится слева от Димы. Дима находится слева от Томы. Кто находится справа от Вале
ры?
4) Сколько букв «R» в слове «STRAWBERRY»

результаты:
ChatGPT-o1: 3/4 правильных ответа
DeepSeek R1: 2/4 правильных ответа
Qwen2.5-Max: 2/4 правильных ответа
ChatGPT-o1-mini: 1/4 правильный ответ

большее кол-во баллов набрал o1, но по сравнению с двумя китайцами, он доступен только по подписке. больше всего тупит o1-mini, он кстати в бесплатной версии тоже ограничен. так что думайте.


🔸 и по практичности:

1)
DeepSeek R1 поддерживает длину контекста до 128 тысяч токенов. Это позволяет модели анализировать большие объемы данных (книги, большие инструкции и тд). Qwen2.5-Max - 32768 токенов. ChatGPT же ограничен 8 тысячами токенов, что подходит для большинства задач, но недостаточно для работы с большими текстами.
(это сколько модель может принимать на вход)

2)
Китайские модели хорошо в математику и программирование (порой лучше чем ChatGPT), но подвержены сильной цензуре, особенно на политику и социальные вопросы, особенно о Китае.
3)
ChatGPT как мне показалось за эти дни, больше подходит для разговорных диалогах, всяких писем, креатива
4)
У китайцев нет памяти из разых чатов, в то время как ChatGPT запоминает ключевую инфу при общении сквозь чаты.
5)
У ChatGPT и DeepSeek есть мобильные приложения, в том время как у Qwen его нет.
6)
DeepSeek (про Qwen не узнал) в соответствии с политикой компании, отправляют/могут отправлять данные пользователей кому надо по запросу. так что в США она долго не задержится хаха

в общем, мне показалось, что DeepSeek R1 и Qwen2.5-Max больше подходят для программирования, математики, решения логических задач. в то время модельки ChatGPT хороши в общении, генерации красивых текстов, разговорах о мировых событиях, политике.


а если выбирать?
я бы не выбирал, а пользовался разными под специфику задачи. скорее всего, по дефолту буду чат джипити использовать. а как помощника в кодинге и решении технических вопросов — DeepSeek и Qwen2.5.

и ссылки на нейросети:
🔸 ChatGPT
🔸 DeepSeek в браузере/ DeepSeek на IOS / DeepSeek на адроид
🔸 Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩10421
OpenAI выпустила семейство новых моделей: o3-mini и o3-mini-high

вряд ли они планировали их открывать в бесплатной подписке так рано, видимо пришлось из-за конкуренции с китайцами.

модели очень крутые насколько я уже успел послушать. потестить не успел, займусь этим завтра.

если вы не поняли — o3-mini бесплатная.
85🤩4
DeepSeek столкнулся с крупной кибератакой

биржевой конкурент chatgpt, китайский AI-стартап deepseek, сообщил о массированной хакерской атаке на свои сервисы. компания вынуждена временно ограничить регистрацию новых пользователей.

атаке предшествовал взлет популярности deepseek — их приложение недавно заняло топовые позиции в app store и google play.

но теперь стоит вопрос: сможет ли deepseek удержаться после такого удара? чётких данных о масштабах взлома пока нет. как думаете, это ударит по доверию пользователей?
7
This media is not supported in your browser
VIEW IN TELEGRAM
DeepSeek основан на коде советских программистов

именно так звучала шуточная новость от Панорамы. но российские каналы, в т.ч. «России 1», на полном серьезе показали это в своем эфире.

кринж?
16
рома джипити
DeepSeek столкнулся с крупной кибератакой биржевой конкурент chatgpt, китайский AI-стартап deepseek, сообщил о массированной хакерской атаке на свои сервисы. компания вынуждена временно ограничить регистрацию новых пользователей. атаке предшествовал…
для написания этого поста я абсолютно ничего не делал

я решил в тестовом режиме прикрутить к каналу автоматическую систему постинга свежих AI-новостей.

как это работает? система сама ищет новость на одном из новостных сайтов на нужную мне тему, далее из нее извлекает текст и передает нейронке, которая пишет пост в моей манере изложения мыслей, и сама публикует пост в канал. если вы не поняли, что это было сгенерировано нейронкой, задумайтесь..... но я не буду часто таким увлекаться если что, думаю раз в два-три дня будут такие посты.

также если вам интересно, я сделал гайдик, как вы сможете сделать то же самое для своих каналов. у меня на настройку такой схемы ушло около получаса.
🤩103
ИИ стал лучше решать математику из-за ... синдрома самозванца

известно, что для успешного решения задач в математике важно умение быть очень внимательным и осторожным. так вот, оказывается, ИИ, который повторно проверяет свои решения, работает точнее.

никому не секрет, что чем больше ИИ, тем он умнее: больше данных, больше параметров... но на самом деле большое кол-во ошибок в рассуждениях связаны с тем, что модели без оглядки заявляют неверные промежуточные шаги.

я спросил у модели DeepSeek посчитать невероятно сложный пример 2 + 2 (на скринах). размышлений и сомнений действительно было много. это правильно
5
Media is too big
VIEW IN TELEGRAM
первый пролнометражный мультфильм, созданный ИИ

недавно в кинотеатрах Беларуси показывали мультфильм, который был сделан за 2,5 месяца с помощью ИИ. за первую неделю его посмотрело более 10к зрителей.

отзывы конечно спорные: кому-то зашло, кому-то нет. я глянул трейлер — мультик как мультик, но как будто в нем нет души что-ли.

а вы что думаете? лайк белорусам?

трейлер на ютубе
33
если вы не можете определиться с фильмом на вечер

попробуйте следующий промпт. я нашел его в интернете и адаптировал, чтобы ответ учитывал ваши предпочтения и отзывы на последние просмотренные фильмы. лично мне ChatGPT выдал фильмы, описания большинства которых мне зашли.

выступи в роли моего личного консультанта и кинокритика. составь список из 10 фильмов или сериалов на основе моих предпочтений (задай мне несколько вопросов) и последних просмотренных мною фильмов или сериалов. при формировании списка учитывай жанр, сюжет, атмосферу и центральную тему.
последние фильмы или сериалы, которые я посмотрел: (названия фильмов):
1) <название фильма>
2) <название фильма>
3) <название фильма>
🤩64
красивые открытки с рецептами для твоих любимых блюд

почти два месяца не было постов на этом канале. не хочу как-то оправдываться, просто было достаточно тяжело возобновить ведение после длительного перерыва.

возвращаюсь с абсолютно бесплолезным, но, как по мне, прикольным промптом для создание инфографики рецепта любого блюда в ChatGPT. обязательно сохраните и попробуйте со своим любимым блюдом!

создай пошаговую инфографику рецепта блюда «сини-пиццы на творожном тесте»: вид сверху, минималистичный стиль на белом фоне. фото ингредиентов с подписями по типу: "200g spaghetti", "150g mushrooms", "3 garlic cloves", "200ml cream", "10g olive oil", "parmesan", "parsley". пунктирные линии показывают этапы приготовления с иконками (кастрюля для варки, сковорода для обжарки, миска для смешивания). внизу — финальное фото готового блюда на тарелке.
128🤩3
OpenAI показали новую модель — GPT-4.1

она представлена в трех версиях: GPT-4.1, GPT-4.1 Mini и GPT-4.1 Nano. некоторые из них уже тестировали под названиями Quasar и Optimus на платформах Arena и OpenRouter.

главное улучшение — модель стала лучше понимать и выполнять инструкции. GPT-4.1 гораздо точнее следует указаниям, меньше забывает контекст при диалоге и реже ведёт себя неадекватно. также подтянули качество в кодинге и мультимодальности.

все модели поддерживают контекст до миллиона токенов через API — и при этом не берут дополнительную плату за длинные запросы. Но в ChatGPT пока изменений не видно: пользователям Plus и Team по-прежнему доступно только 32k токенов, а у бесплатной версии и вовсе 8k.

более подробное сравнение оставил в картинках!
63🤩2
мою статью приняли на европейскую конференцию!

это уже моя вторая статья, которая будет опубликована в международных академическмих журналах. саму статью и куда приняли я показать пока не могу, однако вы можете почитать мой обзор на нее на Хабре!

https://habr.com/ru/companies/sberdevices/articles/900994/
🤩1310