C++ Academy
16.1K subscribers
728 photos
134 videos
1 file
681 links
По всем вопросам- @haarrp

@itchannels_telegram - 🔥 best it channels

РКН: clck.ru/3FmxJF
Download Telegram
🚀 Портфолио производительности от Ashton Six

Репозиторий демонстрирует более 10 лет опыта в разработке ПО с акцентом на высокопроизводительные вычисления (HPC). Включает проекты, такие как NEON Bytepack, который обеспечивает впечатляющую скорость обработки данных.

🚀 Основные моменты:
- Более 10 лет опыта в ПО и HPC
- Проект NEON Bytepack с высокой производительностью
- Ожидаются новые релизы

📌 GitHub: https://github.com/ashtonsix/perf-portfolio

#c
7👍2🔥1
🎮 UZDoom: Моддер-дружелюбный порт DOOM на OpenGL и Vulkan

UZDoom — это современный источник для DOOM, который поддерживает моддинг и предлагает улучшенную графику с использованием OpenGL и Vulkan. Проект основан на коде ZDoom и GZDoom, предоставляя пользователям гибкость и возможности для создания уникального контента.

🚀 Основные моменты:
- Поддержка OpenGL и Vulkan для улучшенной графики
- Открытый исходный код, лицензированный под GPL v3
- Моддер-дружелюбная архитектура
- Активное сообщество и ресурсы для разработчиков

📌 GitHub: https://github.com/UZDoom/UZDoom

#c++
10👍2
🚀 Современный C++ фреймворк для акторов

ex_actor — это фреймворк для создания асинхронных сервисов на C++ с использованием модели акторов. Он упрощает разработку распределённых приложений, избавляя от забот о синхронизации потоков и сетевых взаимодействиях.

🚀Основные моменты:
- Простой в использовании: превращает классы в актеров без сложных макросов.
- Плагинный планировщик: поддержка различных std::execution планировщиков.
- Совместимый API: возвращает стандартные задачи std::execution.

📌 GitHub: https://github.com/ex-actor/ex-actor

#c++
6👍5🔥2
🚀 Высокопроизводительный веб-сервер OpenLiteSpeed

OpenLiteSpeed — это легковесный и высокопроизводительный HTTP-сервер с открытым исходным кодом от LiteSpeed Technologies. Он доступен для скачивания, использования и модификации под лицензией GPLv3.

🚀Основные моменты:
- Легковесный и быстрый веб-сервер
- Поддерживает множество функций для оптимизации
- Открытый исходный код и активное сообщество
- Документация и поддержка доступны онлайн

📌 GitHub: https://github.com/litespeedtech/openlitespeed

#c
3🔥3🥰1
🤖 Llama.cpp: Быстрый инференс LLM на C/C++

Llama.cpp предоставляет эффективные инструменты для инференса больших языковых моделей (LLM) с минимальными затратами на настройку. Проект поддерживает множество архитектур и оптимизирован для работы на различных устройствах, включая Apple Silicon и NVIDIA GPUs.

🚀 Основные моменты:
- Легковесная реализация на C/C++ без зависимостей
- Поддержка различных форматов квантования для ускоренной инференции
- Гибридный инференс на CPU и GPU
- Совместимость с популярными моделями, такими как LLaMA и Mistral
- Возможность разработки новых функций для библиотеки ggml

📌 GitHub: https://github.com/ggerganov/llama.cpp

#c++
❤‍🔥7👍32
🌐 Безопасный браузер на C++ для приватного серфинга

FlameDarkness — это браузер, построенный на WebView2, который акцентирует внимание на безопасности и конфиденциальности. Он разработан для пользователей, стремящихся к большей защищенности в интернете, обеспечивая простоту и надежность.

🚀Основные моменты:
- Использует WebView2 для рендеринга страниц
- Написан на C++ для высокой производительности
- Ориентирован на безопасность и конфиденциальность
- Требует WebView2 и nuget для сборки

📌 GitHub: https://github.com/Localhost83/flamedarkness-browser

#c++
👍1
🖥 Курс: Создание веб-сервера на языке C!

🔗 Ссылка: *клик*

#c #курс

freecourses
Please open Telegram to view this post
VIEW IN TELEGRAM
14🥰2
📊 Анализатор логов 5G NR для KPI

Этот скрипт на C++ анализирует текстовые файлы логов вызовов 5G NR и извлекает ключевые показатели качества сети. Он помогает операторам выявлять проблемы, такие как сбои в передаче, проблемы с покрытием и перегрузки ресурсов.

🚀 Основные моменты:
- Расчет KPI: RRC Setup Success Rate, Average SINR и другие.
- Идентификация проблем в радиосети и ядре.
- Поддержка анализа логов для улучшения качества связи.
- Простой в использовании с примером лог-файла.

📌 GitHub: https://github.com/nidalaburaed/5GBTSLogAnalyzer

#c++
👍32
Forwarded from botavtopost
🧩 ObjectBox: Легкая встроенная база данных для C и C++

ObjectBox предоставляет мощную и быструю встроенную базу данных для приложений на C и C++. Она идеально подходит для работы с объектами и векторными данными, обеспечивая синхронизацию данных между устройствами и облаком. Поддерживает множество платформ и оптимизирована для работы на ограниченных устройствах.

🚀 Основные моменты:
- Легкая и быстрая база данных для IoT и встраиваемых систем
- Поддержка синхронизации данных между устройствами
- Минимальные требования к ресурсам
- Автоматические миграции схемы
- Поддержка множества платформ: Linux, Windows, macOS, Android, iOS

📌 GitHub: https://github.com/objectbox/objectbox-c

#c
👍42🥰1
🚀 Lite³: Уникальный формат сериализации без копирования

Lite³ — это JSON-совместимый формат сериализации, который позволяет работать с данными напрямую в сериализованной форме. Он использует B-деревья для хранения данных, обеспечивая доступ с логарифмической сложностью и устраняя необходимость в традиционном парсинге.

🚀 Основные моменты:
- Непарсируемый, нулевое копирование при чтении и записи
- Поддержка JSON и совместимость с существующими API
- Низкий объем памяти и предсказуемая задержка
- Отсутствие зависимостей и минимальный размер библиотеки

📌 GitHub: https://github.com/fastserial/lite3

#c
🔥93😭1
🧠 Llama.cpp: Быстрая и эффективная LLM-инференция на C/C++

Llama.cpp предоставляет возможность быстрого выполнения LLM-инференции с минимальными зависимостями и поддержкой различных архитектур. Оптимизированный для Apple Silicon и поддерживающий множество форматов квантования, этот проект подходит как для локального, так и для облачного использования.

🚀Основные моменты:
- Поддержка различных архитектур: x86, ARM, RISC-V
- Оптимизация для NVIDIA GPU и использование CUDA
- Поддержка мультимодальных моделей
- Легкость в использовании и настройке
- Интеграция с Hugging Face для работы с моделями

📌 GitHub: https://github.com/ggml-org/llama.cpp

#c
👍43❤‍🔥1