Big data world
2.39K subscribers
412 photos
64 videos
18 files
1.25K links
Интересные статьи Data Science : Big Data : Machine Learning : Deep Learning

По вопросам сотрудничества- @Daily_admin_info

По иным темам @un_ixtime
Download Telegram
Ваша машина, ваш искусственный интеллект — наилучший локальный пакет производительности с Ollama

https://blog.det.life/your-machine-your-ai-the-ultimate-local-productivity-stack-with-ollama-7a118f271479
Vision Search Assistant: Расширьте возможности моделей Vision-Language в качестве мультимодальных поисковых систем

https://cnzzx.github.io/VSA
Изучите пять шаблонов проектирования агентского ИИ, которые повышают эффективность агентов ИИ

https://blog.dailydoseofds.com/p/5-agentic-ai-design-patterns
Агентские и RAG-системы обычно испытывают трудности с обновлением знаний в режиме реального времени и быстрым поиском данных.

Сегодня давайте обсудим недавнюю статью Zep , в которой представлена ​​интересная архитектура графа знаний с учетом времени, призванная решить эту проблему. https://blog.dailydoseofds.com/p/build-human-like-memory-for-your
Новые тенденции в создании продуктов GenAI

По мере того, как мы перемещаем программные продукты, использующие технологию генеративного ИИ, из проверки концепций в производственные системы, мы обнаруживаем ряд общих шаблонов. Оценки играют центральную роль в обеспечении того, чтобы эти недетерминированные системы работали в разумных границах. Большие языковые модели нуждаются в улучшении, чтобы предоставлять информацию за пределами общего и статического обучающего набора. В большинстве случаев мы можем сделать это с помощью Retrieval Augmented Generation (RAG), хотя базовый подход RAG требует нескольких шаблонов для преодоления своих ограничений. Когда RAG недостаточно, становится полезной тонкая настройка.

https://martinfowler.com/articles/gen-ai-patterns
olmOCR: разблокировка триллионов токенов в PDF-файлах с помощью моделей Vision Language

https://github.com/allenai/olmocr
Понимание внимания в LLM
Существует множество отличных статей и руководств по ИИ, которые объясняют модель внимания в больших языковых моделях. Но эта по сути простая модель часто затемняется деталями реализации и оптимизациями. В этом посте я постараюсь перейти к сути.

https://bartoszmilewski.com/2025/03/06/understanding-attention-in-llms
Создайте своего помощника с искусственным интеллектом Second Brain
Использование агентов, систем RAG, LLMOps и LLM

https://decodingml.substack.com/p/build-your-second-brain-ai-assistant
Создание Deep Research Agent с нуля
Давайте создадим с нуля Deep Research Agent, который поможет вам в повседневной работе на базе DeepSeek R1.

https://www.newsletter.swirlai.com/p/building-deep-research-agent-from
Создание рекомендательного сервиса по типу TikTok
Масштабирование персонализированного рекомендателя до миллионов товаров в режиме реального времени

https://medium.com/data-science-collective/1-building-a-tiktok-like-recommender-a64563262c1a
1
9 шпаргалок по RAG, LLM и агентам ИИ
...для инженеров ИИ (объяснение с наглядными примерами).

https://blog.dailydoseofds.com/p/9-rag-llm-and-ai-agent-cheat-sheets
👍1