Участвуйте в розыгрыше билетов на конференцию SECON 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍2🤓1
Forwarded from SECON'2025
This media is not supported in your browser
VIEW IN TELEGRAM
Разыгрываем 2 билета на SECON!
Переходи в наше сообщество Вконтакте и выполняй условия
Скорее участвуй! Желаем удачи
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤🔥2👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Мы в CodeInside растём и берём новые вершины 🚀
И сейчас мы в поиске новых талантов
Актуальные позиции:
🟡 Computer Vision Engineer
🟡 Системного аналитика
🟡 Руководителя проектов в ИТ
Подробнее на сайте🔜
Присоединяйся к нашей команде
И сейчас мы в поиске новых талантов
Актуальные позиции:
Подробнее на сайте
Присоединяйся к нашей команде
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥4❤🔥3🐳1
Новая статья CodeInside на Хабр.
Иван, инженер по разработке AI-систем провел сравнительный анализ локальных и облачных LLM и рассказал о результатах тестирования в RAG-сценариях.
Облачные GPT, Gemini, DeepSeek на слуху у всех. Но в реальных проектах часто нельзя использовать облачные модели из-за требований к безопасности и работе с данными. Тогда на сцену выходят локальные LLM.
В статье сравнили шесть моделей — облачные и локальные и оценили их работу в сценарии RAG . Проверили точность и полноту контекста, достоверность и скорость генерации ответов. Результаты удивили: локальные решения могут быть не хуже облачных. И это не теория, мы уже применяем их в наших проектах
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥4😎4❤🔥2 2👍1