Big data world
2.39K subscribers
412 photos
64 videos
18 files
1.25K links
Интересные статьи Data Science : Big Data : Machine Learning : Deep Learning

По вопросам сотрудничества- @Daily_admin_info

По иным темам @un_ixtime
Download Telegram
Beyond Jupyter — это сборник материалов для самостоятельного изучения проектирования программного обеспечения, в котором особое внимание уделяется приложениям машинного обучения. Он демонстрирует, как грамотное проектирование программного обеспечения может ускорить как разработку, так и эксперименты. https://transferlab.ai/trainings/beyond-jupyter
Масштабирование во время тестирования — это многообещающий новый подход к языковому моделированию, который использует дополнительные вычисления во время тестирования для повышения производительности. Недавно модель OpenAI o1 продемонстрировала эту возможность, но не поделилась своей методологией публично, что привело к многочисленным попыткам репликации. Мы ищем самый простой подход для достижения масштабирования во время тестирования и высокой производительности рассуждений.

https://github.com/simplescaling/s1
Ваша машина, ваш искусственный интеллект — наилучший локальный пакет производительности с Ollama

https://blog.det.life/your-machine-your-ai-the-ultimate-local-productivity-stack-with-ollama-7a118f271479
Vision Search Assistant: Расширьте возможности моделей Vision-Language в качестве мультимодальных поисковых систем

https://cnzzx.github.io/VSA
Изучите пять шаблонов проектирования агентского ИИ, которые повышают эффективность агентов ИИ

https://blog.dailydoseofds.com/p/5-agentic-ai-design-patterns
Агентские и RAG-системы обычно испытывают трудности с обновлением знаний в режиме реального времени и быстрым поиском данных.

Сегодня давайте обсудим недавнюю статью Zep , в которой представлена ​​интересная архитектура графа знаний с учетом времени, призванная решить эту проблему. https://blog.dailydoseofds.com/p/build-human-like-memory-for-your
Новые тенденции в создании продуктов GenAI

По мере того, как мы перемещаем программные продукты, использующие технологию генеративного ИИ, из проверки концепций в производственные системы, мы обнаруживаем ряд общих шаблонов. Оценки играют центральную роль в обеспечении того, чтобы эти недетерминированные системы работали в разумных границах. Большие языковые модели нуждаются в улучшении, чтобы предоставлять информацию за пределами общего и статического обучающего набора. В большинстве случаев мы можем сделать это с помощью Retrieval Augmented Generation (RAG), хотя базовый подход RAG требует нескольких шаблонов для преодоления своих ограничений. Когда RAG недостаточно, становится полезной тонкая настройка.

https://martinfowler.com/articles/gen-ai-patterns
olmOCR: разблокировка триллионов токенов в PDF-файлах с помощью моделей Vision Language

https://github.com/allenai/olmocr
Понимание внимания в LLM
Существует множество отличных статей и руководств по ИИ, которые объясняют модель внимания в больших языковых моделях. Но эта по сути простая модель часто затемняется деталями реализации и оптимизациями. В этом посте я постараюсь перейти к сути.

https://bartoszmilewski.com/2025/03/06/understanding-attention-in-llms
Создайте своего помощника с искусственным интеллектом Second Brain
Использование агентов, систем RAG, LLMOps и LLM

https://decodingml.substack.com/p/build-your-second-brain-ai-assistant