Forwarded from Марков цепи пропил
Dial-up 2.0, или гоним трафик в обход белых списков через звонки в ВК
Пока железки в пути, решил заняться насущным вопросом, который в последнее время что-то обострился.
VK-звонки работают через WebRTC с Selective Forwarding Unit, который пробрасывает SCTP DataChannel между участниками, не заглядывая внутрь. Помимо своего animoji-канала (id:1) VK туда ничего больше не кладёт, поэтому можно создать рядом свой DataChannel (id:2) и использовать его как двунаправленный пайп для произвольных данных. Весь трафик при этом идёт через TURN-серверы VK, которые находятся в белых списках - для DPI это выглядит как обычный звонок.
На стороне Creator'а (тот, у кого есть доступ в интернет) запускается Go relay и hook.js сниппет в браузере. Сниппет хукает RTCPeerConnection, перехватывает ICE-конфигурацию прямо из конструктора, после чего создаётся туннельный DataChannel и бриджится с локальным WebSocket'ом, через который relay раздаёт трафик наружу.
На стороне Joiner'а (тот, кто в зоне белых списков) всё чуть интереснее. Приложение открывает VK-звонок в WebView, поднимает VpnService, который перехватывает весь IP-трафик устройства, прогоняет его через tun2socks, дальше в SOCKS5 прокси на Go, и уже оттуда через WebSocket в тот же DataChannel. Go-часть собирается через gomobile в .aar и линкуется прямо в APK, поэтому можно обойтись без рута/termux.
На speed test получилось добиться 9.57 Мбит/с на скачивание, 4.15 Мбит/с на загрузку с задержкой 14 мс до Брюсселя с мобильной сети.
Есть моменты, которые можно улучшить и автоматизировать, но в целом пока пойдет.
Код/билды здесь [тык]
Пока железки в пути, решил заняться насущным вопросом, который в последнее время что-то обострился.
VK-звонки работают через WebRTC с Selective Forwarding Unit, который пробрасывает SCTP DataChannel между участниками, не заглядывая внутрь. Помимо своего animoji-канала (id:1) VK туда ничего больше не кладёт, поэтому можно создать рядом свой DataChannel (id:2) и использовать его как двунаправленный пайп для произвольных данных. Весь трафик при этом идёт через TURN-серверы VK, которые находятся в белых списках - для DPI это выглядит как обычный звонок.
На стороне Creator'а (тот, у кого есть доступ в интернет) запускается Go relay и hook.js сниппет в браузере. Сниппет хукает RTCPeerConnection, перехватывает ICE-конфигурацию прямо из конструктора, после чего создаётся туннельный DataChannel и бриджится с локальным WebSocket'ом, через который relay раздаёт трафик наружу.
На стороне Joiner'а (тот, кто в зоне белых списков) всё чуть интереснее. Приложение открывает VK-звонок в WebView, поднимает VpnService, который перехватывает весь IP-трафик устройства, прогоняет его через tun2socks, дальше в SOCKS5 прокси на Go, и уже оттуда через WebSocket в тот же DataChannel. Go-часть собирается через gomobile в .aar и линкуется прямо в APK, поэтому можно обойтись без рута/termux.
На speed test получилось добиться 9.57 Мбит/с на скачивание, 4.15 Мбит/с на загрузку с задержкой 14 мс до Брюсселя с мобильной сети.
Есть моменты, которые можно улучшить и автоматизировать, но в целом пока пойдет.
Код/билды здесь [тык]
👍1🔥1
Analysis & deep-dive of the Apple A18 Pro SoC that powers the MacBook Neo. How does it compare to the M4?
🔗 youtube.com/watch?v=fTBvm4Hj7Mw
#Hardware #Apple
🔗 youtube.com/watch?v=fTBvm4Hj7Mw
#Hardware #Apple
YouTube
A18 Pro & MacBook Neo Deep-dive
Analysis & deep-dive of the Apple A18 Pro SoC that powers the MacBook Neo. How does it compare to the M4?
Become a supporter on Patreon: https://www.patreon.com/user?u=46978634
Follow me on X: https://x.com/highyieldYT
Follow me on bsky: https://bsky.ap…
Become a supporter on Patreon: https://www.patreon.com/user?u=46978634
Follow me on X: https://x.com/highyieldYT
Follow me on bsky: https://bsky.ap…
kitten-tts-rs — синтез речи адекватного качества даже на медленных CPU. По сути это Rust-порт Kitten-TTS, работающий в несколько раз быстрее пайтоновского оригинала и представляющий собой единственный бинарь размером в пару десятков мегабайт.
Прикольный момент: на GPU оно работает заметно медленнее, на таких маленьких размерах оверхед возни с копированием в GPU выше чем просто отработать вывод на CPU.
Запустить просто:
0. Ставите espeak-ng (нужен для перевода текста в фонемы)
1. Качаете бинарник под свою платформу здесь: github.com/second-state/kitten_tts_rs/releases
2. Модель здесь: huggingface.co/KittenML
3. Запускаете вывод:
🔗 github.com/second-state/kitten_tts_rs
#AudioVisualGenAI #GenAI
Прикольный момент: на GPU оно работает заметно медленнее, на таких маленьких размерах оверхед возни с копированием в GPU выше чем просто отработать вывод на CPU.
Запустить просто:
0. Ставите espeak-ng (нужен для перевода текста в фонемы)
1. Качаете бинарник под свою платформу здесь: github.com/second-state/kitten_tts_rs/releases
2. Модель здесь: huggingface.co/KittenML
3. Запускаете вывод:
./kitten-tts ./models/kitten-tts-micro "hello my dear" Luna
🔗 github.com/second-state/kitten_tts_rs
#AudioVisualGenAI #GenAI
GitHub
Releases · second-state/kitten_tts_rs
A Rust port of KittenTTS — ultra-lightweight ONNX-based text-to-speech. - second-state/kitten_tts_rs
🔥1
Один из лучших видеогенераторов OpenAI Sora — всё.
🔗 x.com/soraofficialapp
#Sora #AudioVisualGenAI #OpenAI
🔗 x.com/soraofficialapp
#Sora #AudioVisualGenAI #OpenAI
Все это мы уже когда-то проходили с облачными хранилищами и прочими «безлимитными Гугл-фотографиями».
🔗 youtube.com/@t3dotgg
#LLM #GenAI
🔗 youtube.com/@t3dotgg
#LLM #GenAI
YouTube
AI has a subsidization problem
AI subscriptions from the top labs are very heavily subsidized at this point. $5,000 for $200 isn't going to last forever, and inference isn't cheap
Thank you Depot for sponsoring! Check them out at: https://soydev.link/depot
And also Rork! Check them out…
Thank you Depot for sponsoring! Check them out at: https://soydev.link/depot
And also Rork! Check them out…
👍3
ARM анонсировала серверные процессоры ARM AGI. Главный партнер и соразработчик — Meta.
* До 136 ядер ARM Neoverse V3 на процессор
* Память: пропускная способность 6 ГБ/с на ядро, задержка <100 нс
* TDP: 300 Вт
* Одно выделенное ядро на каждый программный поток. Гарантирует детерминированную производительность без троттлинга при длительных нагрузках
* Серверы 1U, до 8 160 ядер на стойку (45 000+ ядер при жидкостном охлаждении)
* TSMC, 3-нм техпроцесс
Экономика:
* Производительность в 2+ раза выше на одну стойку у ARM
* До $10 млрд экономии CAPEX на гигаватт мощности датацентра по сравнению с инфраструктурой x86
* Оборудование: системы от ASRock Rack, Lenovo, Quanta Computer и Supermicro доступны уже сейчас. Массовые поставки — второе полугодие 2026
* Клиенты: Meta (работает в связке с их ИИ-ускорителем MTIA), OpenAI, Cerebras, Cloudflare, F5, Positron, Rebellions, SAP, SK Telecom
Все оценки самой ARM и требуют проверки реальностью.
🔗 newsroom.arm.com/news/arm-agi-cpu-launch
#Hardware #ARM
* До 136 ядер ARM Neoverse V3 на процессор
* Память: пропускная способность 6 ГБ/с на ядро, задержка <100 нс
* TDP: 300 Вт
* Одно выделенное ядро на каждый программный поток. Гарантирует детерминированную производительность без троттлинга при длительных нагрузках
* Серверы 1U, до 8 160 ядер на стойку (45 000+ ядер при жидкостном охлаждении)
* TSMC, 3-нм техпроцесс
Экономика:
* Производительность в 2+ раза выше на одну стойку у ARM
* До $10 млрд экономии CAPEX на гигаватт мощности датацентра по сравнению с инфраструктурой x86
* Оборудование: системы от ASRock Rack, Lenovo, Quanta Computer и Supermicro доступны уже сейчас. Массовые поставки — второе полугодие 2026
* Клиенты: Meta (работает в связке с их ИИ-ускорителем MTIA), OpenAI, Cerebras, Cloudflare, F5, Positron, Rebellions, SAP, SK Telecom
Все оценки самой ARM и требуют проверки реальностью.
🔗 newsroom.arm.com/news/arm-agi-cpu-launch
#Hardware #ARM
🕊1