🥪 Sandwich — удобная обработка API-ответов в Kotlin. Библиотека упрощает работу с сетевыми запросами, предлагая унифицированный подход к обработке успешных ответов, ошибок и исключений. Вместо создания собственных обёрток вроде Resource или Result, разработчики могут использовать готовые компоненты с функциональными операторами.
Инструмент имеет встроенную поддержку корутин и возможность глобальной обработки ошибок через механизм операторов. Например, можно автоматически обновлять токен доступа при получении кода 401 или логировать все исключения в едином месте.
🤖 GitHub
@androidits
Инструмент имеет встроенную поддержку корутин и возможность глобальной обработки ошибок через механизм операторов. Например, можно автоматически обновлять токен доступа при получении кода 401 или логировать все исключения в едином месте.
🤖 GitHub
@androidits
👍3❤1
Forwarded from Machinelearning
FlexTok - метод токенизации изображений, который преобразует 2D-изображения в упорядоченные 1D-последовательности переменной длины.
Его цель - сократить объем данных, необходимых для обучения генеративных моделей, и при этом оставить достаточную информацию для качественной реконструкции и генерации.
В отличие от традиционных подходов, где число токенов фиксировано и зависит только от размера изображения, FlexTok подстраивается под сложность контента: простейшая сцена может кодироваться несколькими токенами, а сложная - десятками и сотнями .
FlexTok, это по сути, пайплайн из 3 компонентов: ViT‑энкодер, квантование регистров и маскирование внимания:
ViT‑энкодер с набором «регистровых» токенов читает латентные представления VAE‑GAN и конденсирует их в 1D-последовательность до 256 регистров .
Затем, с помощью FSQ‑квантования, каждый регистр дискретизируется в код из заранее определенного словаря размером ~64 000.
На этом этапе применяется "nested dropout": во время обучения случайно обрезаются последние токены, чтобы модель научилась упорядочивать информацию от грубых форм к деталям.
Параллельно применяется авторегрессионная маска внимания: каждый токен в цепочке видит только те, что были до него, и не знает о тех, что идут после. Это заставляет модель генерировать изображения шаг за шагом, от первого токена к последнему, и упрощает ей задачу прогнозирования следующих элементов.
Декодер в FlexTok - это модель rectified flow, которая на вход берет укороченные токены и слегка зашумленные латенты VAE и учится предсказывать тот шум, который нужно убрать, чтобы вернуть исходное представление.
Чтобы обучение шло быстрее и давало более точные результаты, добавляют REPA‑Loss: он сравнивает промежуточные признаки с векторами из DINOv2‑L. Благодаря этому даже при очень жесткой компрессии (от 1 до 256 токенов), FlexTok успешно восстанавливает детали изображения.
FlexTok легко встраивается в текстово‑ориентированные модели и может улучшить соответствие изображения описанию, даже если число токенов меняется. К тому же его адаптивная токенизация применима не только к картинкам, но и к аудио или видео.
@ai_machinelearning_big_data
#AI #ML #Tokenizer #Flextok #Apple
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1
⚡️ Почему лучшие разработчики всегда на шаг впереди?
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Мл собес t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/DevopsDocker
Хакинг: t.iss.one/linuxkalii
МЛ: t.iss.one/machinelearning_ru
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/java_library
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Физика: t.iss.one/fizmat
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🖥 Chatgpt для кода в тг: @Chatgpturbobot -
📕Ит-книги: https://t.iss.one/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Мл собес t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/DevopsDocker
Хакинг: t.iss.one/linuxkalii
МЛ: t.iss.one/machinelearning_ru
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/java_library
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Физика: t.iss.one/fizmat
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
📕Ит-книги: https://t.iss.one/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡2❤1
🔧 How to: настраиваем GitLab CI/CD для мобильных тестов
Ручные сборки и деплой занимают время, а человеческий фактор может привести к ошибкам. Автоматизируем процесс!
1️⃣ Создаём .gitlab-ci.yml
Файл .gitlab-ci.yml – сердце CI/CD в GitLab. Здесь описываем, какие тесты и когда запускать.
Пример пайплайна для Android (Appium + Pytest):
stages:
- test
variables:
ANDROID_HOME: "/sdk"
PATH: "$ANDROID_HOME/emulator:$ANDROID_HOME/tools:$ANDROID_HOME/platform-tools:$PATH"
test_ui:
stage: test
image: python:3.9
before_script:
- pip install -r requirements.txt
script:
- pytest tests/ui_tests --junitxml=report.xml
artifacts:
paths:
- report.xml
➖ Что тут происходит?
✔️ stages: Определяем этапы (у нас пока только test).
✔️ variables: Переменные среды (Android SDK и путь к эмулятору).
✔️ test_ui: Джоб, который запускает UI-тесты.
✔️ image: Используем докер-образ с Python 3.9.
✔️ before_script: Устанавливаем зависимости перед запуском.
✔️ script: Запускаем тесты.
✔️ artifacts: Сохраняем отчёт о тестах.
2️⃣ Подключаем GitLab Runner
Чтобы GitLab выполнял тесты, нужен Runner – агент, который их запускает.
Запускаем Runner на своём сервере
➡️ Устанавливаем GitLab Runner:
sudo curl -L --output /usr/local/bin/gitlab-runner \
"https://gitlab-runner-downloads.s3.amazonaws.com/latest/binaries/gitlab-runner-linux-amd64"
sudo chmod +x /usr/local/bin/gitlab-runner
➡️ Регистрируем Runner:
gitlab-runner register
Вводим URL репозитория и токен (берём в Settings → CI/CD → Runners).
➡️ Запускаем Runner:
gitlab-runner start
Теперь тесты будут выполняться прямо на твоей машине или сервере.
3️⃣ Добавляем Android-эмулятор в пайплайн
Если нужно гонять тесты на Android:
test_android:
stage: test
image: budtmo/docker-android:emulator_11.0
before_script:
- start-emulator
- adb wait-for-device
script:
- pytest tests/android_tests
✔️ budtmo/docker-android – докер-контейнер с эмулятором Android.
✔️ start-emulator – запускаем эмулятор.
✔️ adb wait-for-device – ждём, пока устройство загрузится.
4️⃣ Автоматизация сборки APK/IPA
Чтобы собирать APK (Android) или IPA (iOS) в GitLab CI/CD:
Android (Gradle)
build_apk:
stage: build
image: openjdk:11
script:
- ./gradlew assembleDebug
artifacts:
paths:
- app/build/outputs/apk/debug/app-debug.apk
iOS (Fastlane)
build_ios:
stage: build
image: circleci/macos-xcode
script:
- bundle exec fastlane build
artifacts:
paths:
- build/ios.ipa
Какой CI/CD используете вы? Делитесь опытом в комментариях💬
Ручные сборки и деплой занимают время, а человеческий фактор может привести к ошибкам. Автоматизируем процесс!
Файл .gitlab-ci.yml – сердце CI/CD в GitLab. Здесь описываем, какие тесты и когда запускать.
Пример пайплайна для Android (Appium + Pytest):
stages:
- test
variables:
ANDROID_HOME: "/sdk"
PATH: "$ANDROID_HOME/emulator:$ANDROID_HOME/tools:$ANDROID_HOME/platform-tools:$PATH"
test_ui:
stage: test
image: python:3.9
before_script:
- pip install -r requirements.txt
script:
- pytest tests/ui_tests --junitxml=report.xml
artifacts:
paths:
- report.xml
✔️ stages: Определяем этапы (у нас пока только test).
✔️ variables: Переменные среды (Android SDK и путь к эмулятору).
✔️ test_ui: Джоб, который запускает UI-тесты.
✔️ image: Используем докер-образ с Python 3.9.
✔️ before_script: Устанавливаем зависимости перед запуском.
✔️ script: Запускаем тесты.
✔️ artifacts: Сохраняем отчёт о тестах.
Чтобы GitLab выполнял тесты, нужен Runner – агент, который их запускает.
Запускаем Runner на своём сервере
sudo curl -L --output /usr/local/bin/gitlab-runner \
"https://gitlab-runner-downloads.s3.amazonaws.com/latest/binaries/gitlab-runner-linux-amd64"
sudo chmod +x /usr/local/bin/gitlab-runner
gitlab-runner register
Вводим URL репозитория и токен (берём в Settings → CI/CD → Runners).
gitlab-runner start
Теперь тесты будут выполняться прямо на твоей машине или сервере.
Если нужно гонять тесты на Android:
test_android:
stage: test
image: budtmo/docker-android:emulator_11.0
before_script:
- start-emulator
- adb wait-for-device
script:
- pytest tests/android_tests
✔️ budtmo/docker-android – докер-контейнер с эмулятором Android.
✔️ start-emulator – запускаем эмулятор.
✔️ adb wait-for-device – ждём, пока устройство загрузится.
Чтобы собирать APK (Android) или IPA (iOS) в GitLab CI/CD:
Android (Gradle)
build_apk:
stage: build
image: openjdk:11
script:
- ./gradlew assembleDebug
artifacts:
paths:
- app/build/outputs/apk/debug/app-debug.apk
iOS (Fastlane)
build_ios:
stage: build
image: circleci/macos-xcode
script:
- bundle exec fastlane build
artifacts:
paths:
- build/ios.ipa
Какой CI/CD используете вы? Делитесь опытом в комментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
Новый проект от бывших инженеров X/Twitter, который превращает обычные смартфоны в mesh-сеть.
Сообщения проходят даже там, где глушат связь, отключают вышки и происходит цифровой шатдаун.
Что умеет:
— Работает без интернета (реально)
— Шифрует сообщения
— Подключается к другим телефонам поблизости
— Подходит для митингов, фестивалей, отключений связи и просто на всякий случай
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥1🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Open Replay — это self-hosted инструмент для воспроизведения сессий и аналитики.
Идеально подходит для воспроизведения проблем и багов, совместного просмотра с пользователями.
@react_tg
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1🔥1
🎉 On‑device LLM от Apple теперь доступен в React Native!
Команда Callstack представила в предварительном релизе пакет
Что доступно в превью:
• Генерация текста с адаптацией “на лету”
• Потоковый вывод ответов для интерактивности
• Структурированный JSON‑вывод с валидацией через Zod
• Совместимость с Vercel AI SDK — меняйте провайдеры и модели одной строкой
Почему это важно:
• 🔒 Конфиденциальность: весь AI работает локально — данные не покидают устройство
• 🚀 Мгновенный отклик без сети
• 🌐 Оффлайн‑режим всегда под рукой
Что под капотом:
• Модель на ~3 млрд параметров, оптимизированная для iOS
• Поддержка quantization и LoRA‑адаптеров для рерайта и суммаризации
Требования:
• React Native 0.80+ или Expo Canary с New Architecture
• Стабильный релиз — с выходом iOS 26
💡 Возможности:
• Умные редакторы текста
• Ассистенты с доступом к контенту устройства
• Интерактивные функции без интернета
В ближайших обновлениях:
• Более простой API
• Поддержка вызовов функций
• Расширение на Android
📌 https://www.callstack.com/blog/on-device-apple-llm-support-comes-to-react-native
Команда Callstack представила в предварительном релизе пакет
@react-native-ai/apple
, который позволяет использовать на устройствах Apple их Foundation Models прямо в React Native 📱 Что доступно в превью:
• Генерация текста с адаптацией “на лету”
• Потоковый вывод ответов для интерактивности
• Структурированный JSON‑вывод с валидацией через Zod
• Совместимость с Vercel AI SDK — меняйте провайдеры и модели одной строкой
Почему это важно:
• 🔒 Конфиденциальность: весь AI работает локально — данные не покидают устройство
• 🚀 Мгновенный отклик без сети
• 🌐 Оффлайн‑режим всегда под рукой
Что под капотом:
• Модель на ~3 млрд параметров, оптимизированная для iOS
• Поддержка quantization и LoRA‑адаптеров для рерайта и суммаризации
Требования:
• React Native 0.80+ или Expo Canary с New Architecture
• Стабильный релиз — с выходом iOS 26
💡 Возможности:
• Умные редакторы текста
• Ассистенты с доступом к контенту устройства
• Интерактивные функции без интернета
В ближайших обновлениях:
• Более простой API
• Поддержка вызовов функций
• Расширение на Android
📌 https://www.callstack.com/blog/on-device-apple-llm-support-comes-to-react-native
❤2👍1
Forwarded from Machinelearning
LG AI Research представила EXAONE 4.0 (предыдущие версии) , свою ризонинг-модель. Разработчики называют ее «гибридным ИИ», и это не просто маркетинговый ход. По сути, это сплав классических языковых способностей с мощным механизмом логических рассуждений, унаследованным от предшественника EXAONE Deep.
Главная фишка — пошаговый подход к решению задач, основанный на выстраивании цепочки мыслей. Это позволяет модели хорошо справляться не только с текстами, но и со сложными областями вроде математики, науки и программирования.
В LG решили не размениваться на мелочи и не придумывать собственные удобные бенчмарки, а сразу вышли на глобальную арену.
Модель показала себя более чем достойно на самых сложных и актуальных тестах. Например, на GPQA-Diamond, который проверяет научные знания, она набрала 75.4 балла, а в математическом AIME 2025 — все 85.3. Судя по графикам, EXAONE 4.0 уверенно конкурирует как с открытыми, так и с передовыми закрытыми моделями на английском языке, а также демонстрирует отличные результаты на корейском и недавно добавленном испанском.
1. EXAONE 4.0 Professional (32B параметров) — заточена под медицину, право и другие сложные предметные области. Уже сдала 6 национальных сертификационных экзаменов в Корее.
2. EXAONE 4.0 On‑Device (1.2B параметров) — работает офлайн прямо на устройстве. При этом она вдвое компактнее, но быстрее предыдущей версии. Идеально для задач с требованиями к приватности и скорости отклика.
Появилась модель, которая решает больше edge‑кейсов, чем Qwen‑235B, но при этом требует в 7 раз меньше памяти.
Еще:
- Обучена на 14T токенах.
- Поддерживает Model Context Protocol (MCP)
- Поддерживает**Function Calling** — интеграция с внешними инструментами и API прямо через LLM.
@ai_machinelearning_big_data
#AI #ML #LLM #EXAONE #LG
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1🔥1
Упрощаем разработку в разы с помощью Swift-библиотек — топ инструментов, которые помогут сэкономить ЧАСЫ рабочего времени и не создавать проекты с нуля, а пользоваться уже готовыми паттернами.
• Alamofire — удобный HTTP-клиент для API-запросов, упрощает работу с REST API.
Установка:
Пример использования:
• Moya — расширение для Alamofire с удобной архитектурой и встроенной поддержкой тестирования.
• SwiftyJSON — удобный парсер JSON, упрощает работу с неструктурированными данными.
Установка:
Пример:
• Realm — быстрая и легкая альтернатива Core Data для хранения данных.
• SnapKit — декларативный Auto Layout, избавляет от громоздкого кода с NSLayoutConstraint.
• Lottie — анимации в формате JSON, созданные в After Effects.
• Kingfisher — загрузка и кэширование изображений.
• DGCharts — удобная библиотека для построения графиков и диаграмм.
Сохраняйте себе, если хотите бустануть продуктивность, писать более чистый код и упростить работу с графикой.
@mobi_dev
• Alamofire — удобный HTTP-клиент для API-запросов, упрощает работу с REST API.
Установка:
pod 'Alamofire'
Пример использования:
import Alamofire
AF.request("https://jsonplaceholder.typicode.com/posts").response { response in
print(response)
}
• Moya — расширение для Alamofire с удобной архитектурой и встроенной поддержкой тестирования.
• SwiftyJSON — удобный парсер JSON, упрощает работу с неструктурированными данными.
Установка:
pod 'SwiftyJSON'
Пример:
import SwiftyJSON
let json = JSON(response.data)
if let name = json["name"].string {
print("Name: \(name)")
}
• Realm — быстрая и легкая альтернатива Core Data для хранения данных.
• SnapKit — декларативный Auto Layout, избавляет от громоздкого кода с NSLayoutConstraint.
• Lottie — анимации в формате JSON, созданные в After Effects.
• Kingfisher — загрузка и кэширование изображений.
• DGCharts — удобная библиотека для построения графиков и диаграмм.
Сохраняйте себе, если хотите бустануть продуктивность, писать более чистый код и упростить работу с графикой.
@mobi_dev
👌2🔥1
🔍 Lucy (1.7B) — легковесная агентная модель веб-поиска на базе Qwen3, обученная только через RL, без привычного SFT.
📱 Заточена под мобильные устройства и CPU-only:
• Агентный поиск через Serper (Google API) + Crawl4AI
• Специальные векторные задачи направляют рассуждение
• Обгоняет DeepSeek-v3 на SimpleQA (MCP-бенчмарк)
• Работает с vLLM, llama.cpp, Jan, LMStudio
• Есть в формате gguf — для локального запуска на CPU
• Режим генерации: temp 0.7 / top-p 0.9 / top-k 20
https://huggingface.co/collections/Menlo/lucy-6879d21ab9c82dd410b231ca
📱 Заточена под мобильные устройства и CPU-only:
• Агентный поиск через Serper (Google API) + Crawl4AI
• Специальные векторные задачи направляют рассуждение
• Обгоняет DeepSeek-v3 на SimpleQA (MCP-бенчмарк)
• Работает с vLLM, llama.cpp, Jan, LMStudio
• Есть в формате gguf — для локального запуска на CPU
• Режим генерации: temp 0.7 / top-p 0.9 / top-k 20
https://huggingface.co/collections/Menlo/lucy-6879d21ab9c82dd410b231ca
👍2❤1
⏳ AWS Amplify — библиотека для фронтенд- и мобильных разработчиков, упрощающая интеграцию приложений с облачными сервисами AWS. Она предлагает готовые решения для аутентификации, хранения данных, аналитики, API и даже машинного обучения, скрывая сложность бэкенд-настроек за простым JavaScript-интерфейсом.
Хотя инструмент заточен под AWS, архитектура позволяет подключать и кастомные бэкенды. Amplify особенно удобен для React Native и веб-приложений, например, можно добавить авторизацию через Cognito или работу с S3 буквально парой строк кода.
🤖 GitHub
Хотя инструмент заточен под AWS, архитектура позволяет подключать и кастомные бэкенды. Amplify особенно удобен для React Native и веб-приложений, например, можно добавить авторизацию через Cognito или работу с S3 буквально парой строк кода.
🤖 GitHub
iOS 26 с интерфейсом «жидкое стекло» уже можно протестировать. Apple выпустили публичную бета-версию.
Как установить:
После этого в разделе обновлений появится предложение скачать iOS 26. Тут рассказывали, что нового в ПО.
Как установить:
Проходим верификацию на этом сайте > заходим в настройки iPhone > «Основные» > «Обновление ПО» > переключаемся на iOS 26 Public Beta
После этого в разделе обновлений появится предложение скачать iOS 26. Тут рассказывали, что нового в ПО.
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Google Labs запустила публичную бета-версию инструмента Opal, в котором можно создавать простые ИИ-приложения без написания кода.
Пользователь описывает желаемую цель тестом, после чего система автоматически генерирует визуальную блок-схему рабочего процесса, объединяя в цепочку промпты, ИИ-модели и внешние инструменты.
Схему можно гибко редактировать в drag-and-drop интерфейсе или с помощью дальнейших текстовых команд.
Готовые проекты публикуются как самостоятельные веб-приложения, привязанные к аккаунту Google, и ими можно сразу поделиться по ссылке.
В основе Opal лежат модели Gemini. Инструмент доступен пока только для пользователей в США.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1