Андрей Демчинский
1.34K subscribers
414 photos
140 videos
18 files
677 links
Про инновации в глазах для науки, практики и кибербудущего.
Download Telegram
Сейчас будет жесткий футуризм. Кто-то антивозрастные штуки придумывает, а тут про то, как проснуться через 300 лет.

Представьте, что мозг надо сохранить как хрупкий фарфор, но только в масштабе миллиардов связей. Лёд тут в обычном варианте все испортит, поэтому витрификация это как попытка заморозить стеклом - без кристаллов.

В препринте показали как целый мозг кролика после перфузии раствором M22 можно охладить и разогреть так, чтобы на микроскопии не было признаков повреждений льдом, но цена видна сразу: сильная осмотическая усадка, которая искажает нейроанатомию. Авторы прямо считают порядок этой цены: точка плавления M22 около минус 55°C, что соответствует примерно 29.6 osmolal (че это вообще), то есть порядка ста раз концентрированнее плазмы или ликвора, а барьер кровь-мозг быстрее выпускает воду, чем впускает криопротекторы.

Кусок про человека. Биоптаты коры после перфузии M22, охлаждения и разогрева не показывают льда даже в тесте, где нуклеацию льда специально провоцируют, а частичное разведение M22 возвращает пирамидным нейронам более нормальную форму. При этом в методах описано, что перфузия в одном случае завершалась примерно через 6 часов 16 минут после юридической смерти, а потом корковые биопсии сразу уходили в жидкий азот. Вот так.

Глянец тут появляется, когда структурную сохранность продают как сохранность личности. Но дорожная карта Biostasis отдельно подчёркивает разрыв между красивой морфологией и доказанной обратимостью функций у человека
🔥158❤‍🔥6🤨2
Вы знаете я люблю технологии и движуху стартаперскую, поэтому делюсь информацией о старте нового потока сеченовского акселератора.

Это хорошее место, поверьте, поэтому если у кого есть идеи что-то разрабатывать и внедрять, то прыгайте 🤓

https://t.iss.one/SechenovAcceleration/867
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥124🤓2🦄1
Короче разъеб, я чувствую если эту статью кто-то подхватит, то...

Рассказываю. Самое опасное в медицине, это ошибка с убедительным тоном. Языковая модель умеет звучать уверенно даже тогда, когда она ошибается - это та правда, которую просто надо иметь в виду. Поэтому исследования про вред надо читать как протокол вскрытия, а не как приговор.

В Nature Medicine вышло рандомизированное исследование, в котором 1298 взрослых британских докторов решали 10 клинических сценариев и выбирали, что делать дальше. Три группы общались с GPT 4o, Llama 3 или Command R+. В варианте с Command R+ был подключён поиск к интернету, а контроль мог пользоваться любыми источниками, чаще всего сайтом NHS и обычным поиском. В одиночку модели почти всегда называли уместное состояние в 94,9% случаев и в 56,3% давали правильное решение по маршрутизации. Но люди с теми же моделями называли уместные причины меньше 34,5%, а правильную маршрутизацию - меньше 44,2%, то есть не лучше контроля.

Наивное чтение такое: значит модели бесполезны.


На деле же это удар по связке "пользователь + форма общения + модель". Люди задают закрытые вопросы, приносят неполную картину, а система иногда путает контекст и выдаёт непоследовательные советы. Авторы признают, что данные собраны в августе и октябре 2024 года, а новые и более специальные версии могут быть сильнее, но это ещё не гарантирует, что исчезнет провал именно во взаимодействии человека с системой.

При этом есть и обратные результаты. В этом исследовании, например, на практикующих врачах с GPT 4 улучшал клиническое рассуждение по ведению клинического случая по сравнению с "только с источниками".

Маяк: перестаньте спорить какая модель умнее. Спросите умеет ли врач вообще пользоваться языковой моделью. Он строит запрос как клинический протокол, с контекстом, ограничениями, красными флагами, целью ответа и форматом проверки, или он тупо гуглит и ждёт волшебной справки? Пока мы не измеряем навык постановки запроса, не задаём рамки риска и не требуем проверку на реальных пользователях с ответственностью за неверную маршрутизацию, любая умная система останется скальпелем без анатомии: инструмент острый, а резать будет куда придётся.

#llm #ИИ #Демчинский
120👍8💯7🤝1
День ИИ у меня получается, но надо, потому что и интересно и серьезно одновременно. Может сделать неделю ИИ?

Мы привыкли к ИИ как к "умному поиску", типа спросил - получил текст, иногда с фантазией. Но сейчас разговор с LLM незаметно превращается в поручение: "сделай задачу целиком, сам проверь, сам исправь". И вот это уже не про качество ответов, а про экономику труда для всех, кто живёт за компьютером.

В эссе "Something Big Is Happening" Мэтт Шумер описывает момент, когда ты формулируешь цель, уходишь на пару часов и возвращаешься уже к готовому результату. Не черновику, а к завершённой работе, потому что модель стала агентом и действует в интерфейсе, а не только в жпт чатике. Причем это не художественный приём, потому что вот OpenAI прямо пишет, что GPT-5.3-Codex "переходит от написания кода к работе на компьютере end-to-end", а Anthropic публично объясняет как модели учат "использовать компьютерные среды, как человек".

Классический медицинский ИИ в офтальмологии, это узкая модель, типа для распознать ДР, ВМД, глаукомные признаки на снимке, подсветить подозрительные зоны, выдать риск и все в таком не вау масштабе. Агентный же LLM, это не только узкая модель, но + "руки": он сам собирает снимки, сопоставляет с анамнезом, пишет черновик заключения, формирует письмо пациенту, готовит направление, и (в идеале) не забывает еще приложить ответственность к подписи врача.

Маяк простой: если вы не начнёте перестраивать свои процессы под агента сейчас, позже будет поздно. И не потому что "ИИ заберёт работу", а потому что работу заберут те, кто научился отдавать её агенту быстрее и безопаснее.

#llm #ИИ #Демчинский
💯6👍2🐳1🍾1🤓1
Когда линза обещает зум без механики, я первым делом ищу не PSF, а то, что обычно остаётся за кадром: ресурс, стабильность, прозрачность метрик, потому что под капотом всегда есть нюансы.

Из интересного. В терагерцевой плоской оптике прогресс реальный, тут в свежей работе про жидкокристаллическую ахроматическую переменно фокусную металинзу показали переключение фокуса между 10.20 и 13.76 мм с ахроматикой в диапазоне от 1.0 до 1.6 THz и демонстрацией мультиспектральной визуализации. В другом направлении arXiv описывает электрически управляемую многоканальную металинзу с восемью фокусными расстояниями, толщиной порядка 6 мм (ого) и переключением фокуса в диапазоне от 3.6 до 9.6 мм. А в MWIR уже продают «почти объектив», в аннотации заявлены 18 крат непрерывного зума и поле зрения больше 80 градусов при дифракционно ограниченном качестве.

Но вот где начинается глянец. Почти нигде в этих материалах не видно того, что превращает демонстрацию в компонент: сколько образцов, как ведёт себя фокус после тысяч циклов, есть ли дрейф, гистерезис, какова повторяемость на партии. Это то, что видят только те офтальмологи, которые занимаются разработками.

Маяк простой: верить стоит не в идеальную картинку фокуса на картинках, а в паспорт ресурса и воспроизводимость. Как только они появятся, так сразу эта плоская оптика начнёт выходить из жанра демонстраций в жанр нашей любимой ответственности.
👍833
Ещё одна модель, которая обещает увидеть в глазу больше, чем видит врач, а лучше сразу и предсказать будущее. Удобно верить, что теперь достаточно загрузить объёмную ОКТ и получить диагноз, прогноз и смысл жизни в одном отчёте.

Сежая тема. OCTCube-M это 3D-мультимодальная foundation-модель: сначала 3D-предобучение на 26 685 ОКТ-объёмах (1.62 млн 2D-срезов), затем контрастное связывание ОКТ с IR/FAF/en face через COEP, чтобы разные модальности «сходились» в одном латентном пространстве. Сильное место в заявке не цифры и не громкое слово «foundation», а попытка доказать переносимость.

Но вот где обычно заканчивается презентация и начинается реальность. Переносимость между приборами и протоколами остаётся одной из самых больных тем для OCT, даже в более простых задачах вроде сегментации, потому что разные устройства и настройки меняют распределение данных. Поэтому вопрос к OCTCube-M практический, а не философский: как она ведёт себя на вашем конкретном сканере OCT и вашей популяции, особенно вне условий клинических испытаний, где контроль ниже.

Для разработчиков есть открытый репозиторий с примерами и весами, но часть вещей для объяснимости пока не доведена, например раздел про карты важности отмечен как планируемый к выпуску.

Маяк простой. Следите не за красивыми метриками, а за тем, появляется ли у таких моделей привычка честно показывать границы уверенности на «грязном» реальном потоке, и улучшаться от этого, а не от презентаций.

#ОКТ #ИИ #Демчинский
14👍9🔥8
Автономная офтальмохирургия: следующий шаг после «тремор-режима»

Интраокулярная микроманипуляция упирается в две вечные вещи: ограниченное «понимание сцены» и глубину (на сколько микрон вы реально вошли). Цена ошибки разрыв, кровотечение, отслойка и еще что-нибудь. Поэтому автономная интраокулярная хирургия интересна не как шоу, а как попытка купить повторяемость и безопасность. Появилась работа, в которой авторы прямо заявляют ставку на более стабильный результат, сокращение обучения и потенциал для работы там, где человеческих рук не хватает.

Это китайцы. Команда описывает систему ARISE, автономного железного микрохирурга, который совмещает в себе макронаведение инструмента в глазу и микропозиционирование иглы у цели. Самый концентрат результата звучит почти буднично: «positioning errors were reduced by 79.87% and 54.61%» - по сравнению с ручной и телеманипулируемой роботической хирургией соответственно. Неприятно для самолюбия, но полезно для пациента, лол.

ARISE выполнял субретинальные инъекции и инъекции в центральную вену на фантомах, ex vivo свиных глаз и in vivo на животных. В ex vivo авторы заявляют 100% успеха для субретинальных (n=20), CRV (n=20) и BRV (n=20) инъекций, и в in vivo тоже 100% успеха (по n=16 в каждой группе). Если коротко, то игла приходит туда, куда её попросили, и делает это одинаково много раз подряд без «сегодня рука так, а завтра - сяк».

Пока это доклиническая демонстрация. До клиники нужно доказать безопасность на вариабельной анатомии, встроить систему в операционную и пройти регуляторный путь для автономного режима.

Работа важна не тем, что «робот сделал укол», а тем, что автономная витреоретинальная микроманипуляция собирается из проверяемых модулей, типа восприятие, калибровка, контроль траектории, критерии остановки. И главный вопрос тут теперь не «может ли робот», а «какую цену ошибки мы готовы принять и как её измеряем». Почему так? потому что в глазной хирургии иллюзии заканчиваются быстро - на сетчатке.

Вывод такой, что ARISE можно рассматривать как сигнал, что автономность подбирается к самым деликатным задачам в офтальмологии и если точность удастся перевести в клинику со всеми стоп-словами (правилами), то тогда мы получим не замену хирургу, а новый стандарт воспроизводимости.

#ИИ #Робот #Сетчатка #Наука #Демчинский
👍10🔥71👀1
Немного офтальмологических генераций, раз уж праздничек
🔥28❤‍🔥863👍2
🔥13❤‍🔥3👍2🆒2
This media is not supported in your browser
VIEW IN TELEGRAM
🤷‍♀5🤔4👾3🤓2
Прикинь, миопия это не «слишком много экранов», а слишком мало света в тот момент, когда глаз изо всех сил пытается навести резкость. Тогда виноват не смартфон, а сценарий.

SUNY Optometry: миопия может ускоряться из-за длительной «ближней работы» в помещении при низкой освещенности, когда зрачок сужается не от яркости, а от аккомодации, и до сетчатки доходит меньше света. В работе показывали не «почему растёт миопия», а физиологию: у 34 взрослых (22-31 год) измеряли конвергенцию и размер зрачка при наведении фокуса на цель через -5 D дефокус. Авторы честно пишут о своих минусах, типа мало испытуемых и нет прямого измерения аккомодации (класс); а механизм «меньше света на сетчатке, когда ретинальная активность слабее - глаз растёт в длину» остаётся гипотезой.

Глянец начинается там, где гипотезу продают как приговор. Пока причинность не доказана: физиология «зрачок как диафрагма камеры» не равна прогрессии миопии у детей. Но она неплохо стыкуется с тем, что уже известно: близкая работа статистически связана с миопией (мета-анализ 78 исследований), время на улице ассоциировано с меньшей распространённостью, да и в обзоре IMI это подчёркивается как защитный фактор.

Маяк для не докторов и некоторых докторов: если ты ищешь «одного злодея», то будешь воевать со стеклом экрана, а если ищешь управляемые причины, то смотри на свет и на режим ближней нагрузки - там возможно и скрыта цена комфорта.

Про теорию саму - вроде как было про такое, да, но тут немного под другим углом и как будто бы ближе к механизму, хотя хочется еще докрутить до нормального уровня, да хотя бы с аккомадографом для объективности и людей побольше действительно.

#миопия #теория #Демчинский
👍149🐳4🤓3👨‍💻1
ChatGPT пропускает половину экстренных случаев!
Заголовок, который продает адреналин и на который, конечно же, сразу клюют доктора, потому что ИИ вдруг так элементарно стал удобно тупым. Но не все так просто.

В абстракте публикации Nature Medicine по сути заявляется, что LLM даёт неровную точность триажа, и на "краях" (остаться дома против немедленной госпитализации) возможны систематические промахи. Это звучит как готовая сенсация и многие, конечно же, цепляются именно за эту фразу с вкусными процентами, потому что удобно, быстро и цитируемо. Проблема в том, что полная методология по основной ссылке закрыта, поэтому предлагаю сделать скучную, но взрослую вещь: зайти не в заголовок, а под капот через официальные приложения издателя.

Дополнительная информация, в которой виден каркас дизайна: 60 клинических виньеток, 16 условий, всего 960 прогонов, фиксированные правила выбора A/B/C/D и критичная для интерпретации деталь - тестирование происходило 9–11 января 2026, то есть вопрос “какая именно версия модели использовалась" не риторический, а методологический. Почему? Да потому что 11 числа автоматически стала использоваться современная модель 5.2, а до этого была предыдущая - 5.1 и уже тут появляется грубое нарушение в сравнении.

Есть еще файл ревью, в котором авторы дают ссылку на гитхаб с воспроизводящими файлами рукописи.

А теперь где может прятаться желтизна даже при честных авторах. Во-первых, используется один шаблон промпта без анализа чувствительности, в итоге результат легко становится свойством формулировки, а не качества LLM. Во-вторых, структура кейсов: громкий процент может держаться на узком наборе сценариев (в рецензиях это обычно и разбирают и здесь это как раз тот документ, который стоит читать). В-третьих, принудительный дискретный выход (A/B/C/D без уточняющих вопросов) - это валидный стресс-тест интерфейса, но слабая модель реального взаимодействия врача с инструментом.

Короче маяк простой: если мы хотим спорить не эмоциями, а ответственностью, то спор надо вести по воспроизводимым данным и там станет видно, это проблема “LLM как такового” или проблема “как люди (в том числе врачи) им пользуются” (через одно место).

#LLM #ИИ #Демчинский
9🔥4💯3🏆2
Инженерный путь нейроимпланта: от компьютерной модели до пациента

https://engineer.yadro.com/article/kak-razrabativayut-neiroimplanti-dlya-zreniya/
1🔥11🍾4👍31
Новость, которая выглядит нишевой, а на деле может сильно сдвинуть офтальмологический ИИ (не про LLM).

Команда Johns Hopkins выложила на arXiv препринт о генерации синтетических ОКТ-сканов роговицы на основе физической модели. Авторы собирают пятислойную геометрию роговицы, задают оптические свойства тканей и прогоняют моделирование света методом Монте-Карло, чтобы получать не только изображения, но и пиксельно точные маски слоев. В наборе более 10 000 пар «скан + разметка» размером 1024x1024, включая здоровые и кератоконус подобные случаи и я считаю это круто.

Почему это важно. Узкое место здесь не только в моделях, а в данных: клинические ОКТ датасеты трудно собирать, они чувствительны с точки зрения приватности, а качественная послойная разметка стоит дорого. А здесь ставка сделана на управляемую синтетику, где можно отдельно менять кривизну, толщину слоев, шум и затухание сигнала по глубине. Иначе говоря, это не просто красивые картинки, а нормальный стенд для проверки алгоритмов.

Важно то, что пока это проверяли в основном на здоровых примерах, то есть перенос на реальную клинику авторы еще не делали, оставили на следующий этап.

Вывод здесь довольно спокойный. Рынок медизображений все чаще выигрывает не от самой громкой архитектуры, а от данных, у которых есть физика с математикой, контроль и нормальная разметка. Если эта линия дойдет до реальных клинических ОКТ и хирургической навигации, то ценность будет в предсказуемости результата, красота.

#ОКТ #ИИ #Демчинский
112👍7🔥2😱2
Сделай мне красиво и быстро: как цифровой комфорт тихо отключает критическое мышление

Одним из страхов при использовании больших языковых моделей является возможное отупление. Может быть, иногда это и так. Но мой опыт часто показывает обратное: при хорошем сценарии такие системы ускоряют вход в тему, помогают увидеть структуру задачи и быстрее замечать слабые места. Поэтому возникает нормальный вопрос: как именно это работает, и в каких случаях это полезно, а когда - вредно. Пополняем копилочку.

Свежие рандомизированные контролируемые эксперименты дают неприятный, но важный ответ. Сам по себе быстрый и гладкий ответ машины ещё не означает, что человек стал сильнее. В исследовании компании Антропик разработчики, изучавшие новую библиотеку (речь о программировании) с помощью помощника на основе искусственного интеллекта, почти не выиграли во времени, зато хуже усвоили материал: итоговый результат теста оказался ниже на 17%, а особенно просела отладка, именно там, где потом приходится думать самому 😒

Попытка сделать педагогического помощника тоже не стала чудом. В эксперименте помощник, построенный на сократическом диалоге, действительно усиливал рефлексию и метапознание, но не улучшил точность ответов и не сделал поиск информации качественнее. Более того, участники заметно тянулись к быстрым утвердительным ответам вместо проверки оснований 😞

Ещё один важный результат: когда людям показывают не только совет системы, но и первичные основания, то они чаще опираются на доказательства, а не на кайфовые объяснения. В работе Уоррена, например, участники в большинстве случаев принимали решение именно по доказательствам, а не по сопроводительному объяснению. Это важный сигнал для проектирования: красивое объяснение не равно хорошему мышлению, если пользователь не видит, на чём оно стоит. Не случайно сами разработчики ллм уже начали выносить отдельные учебные режимы, где цель не только ответ, но и понимание.

Короче пока что так:
Плохо, когда система превращает человека в оператора кнопки «сделай за меня».
Хорошо, когда система сначала удерживает человека в мысли, потом показывает основание и только после этого ускоряет. Тогда это не костыль для ума, а тренажёр с усилителем.

#LLM #Образование #Демчинский
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥31
Трёхдневный AI-кэмп для лидеров в AI, ML & Data Science. Тех, кто управляет продуктами и технологиями в мире данных и двигает индустрию вперёд.

Мощная программа, сильные спикеры, а с меня ночное выступление на тему киборгов.

https://aspectum.tech/tpost/e7tnnu73f1-snowbase
🔥63
Напридумывали разных ИОЛ и теперь их надо как-то сравнивать. Обычно как это происходит: пациент жалуется на ореолы, блики, засветы вокруг фар и фонарей, врач это фиксирует, а дальше начинаются какие-то интерпретации. Клево, конечно, но научности тут не так много, поскольку слишком многое зависит от восприятия, адаптации и даже от того, как человек вообще описывает дискомфорт. Поэтому испанцы такие: "А давайте сначала измерим эти засветы объективно, на стенде и в цифрах" - и сделали стенд.

В работе ИОЛ ставили в модель глаза, использовали точечный источник света, собирали серию снимков в HDR и считали радиус ореолов с их яркостью. Получилось довольно наглядно:
🔻у монофокальных ИОЛ ореол около 0,4°,
🔻у недифракционных EDOF примерно 0,45-0,63°,
🔻у дифракционных трифокальных уже 0,84-1,22°, и он не только больше, но и ярче.

То есть сама оптическая схема действительно оставляет разный световой след, и это уже не разговор на уровне ощущений, а измеряемый факт.

Интересно еще сравнить с тем, что в клинике получают в плане ощущений пациентами. Мета-анализ сравнений трифокальных и гибридных EDOF показал, что трифокалы чаще связаны с ореолами, хотя при этом обычно дают лучший результат вблизи. В то же время большой обзор Cochrane предлагает не драматизировать, потому что по субъективным жалобам разница между группами не всегда выглядит убедительно, потому что стенд измеряет оптику, а пациент живет уже на стыке оптики, нейроадаптации и условий освещения (вот в чем проблема оценки со стороны пользователей линз).

Такое бы еще для разных алгоритмов лазерной коррекции замутить, а может использовать моделирование на роговичных ОКТ, о которых я писал тут, хз. Знаю некоторые приборы моделируют рассеивание точки, но это немного не то, как минимум в этой функции нет сравнения алгоритмов.

Короче в чем прикол работы: она не переворачивает клинику и не создает вау, она дает ЛИНЕЙКУ. Раньше мы в основном слушали, что человек говорит про свет ночью, а с этой штукенцией теперь появляется шанс сначала понять, что именно делает сама линза, а уже потом спорить, насколько это почувствует конкретный пациент.

#ИОЛ #Демчинский
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥125🏆1
Полезный ИИ начинается там, где кончается автопилот

Самый опасный момент при работе с языковой моделью выглядит буднично: ты не споришь с ответом, ты просто перестаёшь его проверять. И вот это уже не спор из серии «тупеем ли мы от нейросетей», а нормальная прикладная задача для HCI (взаимодействие человека и компьютера).

В продолжение этой и этой тем рисуется понятный тезис: польза от больших языковых моделей вполне измерима, но как ее можно замерить? Разберем чуток. Вот в исследовании MIT доступ к ChatGPT ускорял выполнение профессиональных письменных задач и повышал качество текста, то есть проблема не в самом факте использования. Работа (кстати первый журнал, в котором я увидел интегрированный инструмент AI summary) показала неприятную, но важную и полезную деталь: развёрнутые объяснения повышают доверие и к правильным, и к неправильным ответам, тогда как ссылки на источники и внутренние несостыковки децл возвращают пользователя к реальности.

Новый препринт интересен тем, что ищет ошибку не в финале, а ранние следы по ходу работы с моделью. Авторы наблюдали за 77 участниками, подмешивали в ответы модели правдоподобную дезинформацию и анализировали журналы действий: клики, прокрутку, паузы, копирование, возвраты к окну модели. Получилось так, что высокий риск избыточной зависимости чаще был связан с быстрым копированием без правок, пропуском чтения исходного задания и постоянными возвратами к ответу модели вместо проверки материала. Это была бы сильная идея для интерфейсов всяких там ChatGPT и подобных: не ждать провала, а замечать момент, когда человек уже едет на автопилоте и давать какую-то недельную статистику, например. Это как минимум был бы мощный самоконтроль.

Но продавать это как готовый «боевой детектор» я бы не стал, поскольку авторы сами пишут, что выборка мала для надёжной предсказательной модели, лабораторный дизайн ограничивает переносимость результата, а открытый репозиторий пока не выглядит как полностью воспроизводимый промышленный набор.

Короче говоря, зачем эта работа сдалась на практике. Если ты замечаешь у себя или в продукте связку "быстрое копирование ответа, почти без редактуры, без чтения постановки задачи, с постоянным возвращением к окну модели" - это не про «эффективность», а сигнал, что модель уже думает вместо тебя. Полезный режим другой: сначала сам формулируешь задачу и критерий проверки, потом просишь ответ с источниками, затем переносишь в текст только куски, которые можешь проверить и переписать своими словами.

А еще важный тезис заключается в том, что это не про борьбу с моделью, а способ сделать так, чтобы она усиливала мышление, вместо того, чтобы тихо его подменять.

#LLM #образование #Демчинский
❤‍🔥53🏆1