#unrealneural 
Новые исследования показывают, что такие состояния, как аутизм и шизофрения, могут развиваться ещё до рождения. Учёные исследовали почти 1000 донорских человеческих мозгов и отслеживали, как ключевые химические метки ДНК, известные как метки метилирования, меняются в коре головного мозга. Они обнаружили, что большинство этих изменений происходят внутриутробно, особенно в первые недели беременности.
Эти изменения ДНК критически важны, поскольку они способствуют специализации клеток мозга, их взаимодействию и формированию сетей, а некоторые из затронутых генов связаны с аутизмом и шизофренией. Результаты исследования показывают, что «окно» для того, что может повлиять на развитие мозга, находится даже раньше, чем мы предполагали.
Это дает нам новый взгляд на то, как и когда могут возникнуть подобные нарушения нейроразвития, и подчеркивает важность изучения пренатального развития мозга в процессе поиска путей его понимания и потенциального вмешательства.
Новые исследования показывают, что такие состояния, как аутизм и шизофрения, могут развиваться ещё до рождения. Учёные исследовали почти 1000 донорских человеческих мозгов и отслеживали, как ключевые химические метки ДНК, известные как метки метилирования, меняются в коре головного мозга. Они обнаружили, что большинство этих изменений происходят внутриутробно, особенно в первые недели беременности.
Эти изменения ДНК критически важны, поскольку они способствуют специализации клеток мозга, их взаимодействию и формированию сетей, а некоторые из затронутых генов связаны с аутизмом и шизофренией. Результаты исследования показывают, что «окно» для того, что может повлиять на развитие мозга, находится даже раньше, чем мы предполагали.
Это дает нам новый взгляд на то, как и когда могут возникнуть подобные нарушения нейроразвития, и подчеркивает важность изучения пренатального развития мозга в процессе поиска путей его понимания и потенциального вмешательства.
⚡3❤🔥2👍1👨💻1
  #unrealneural 
Эмерджентность мозга - это не мистика. 86 млрд нейронов, каждый из которых просто суммирует входы и выдаёт спайк. Никакой 'души' в отдельном нейроне. Но на уровне сети - память, эмоции, самосознание.
Это как муравейник: один муравей глуп, колония - гениальна. Нейроны не 'думают'. Система думает.
P.S. Также как на уровне людей
Эмерджентность мозга - это не мистика. 86 млрд нейронов, каждый из которых просто суммирует входы и выдаёт спайк. Никакой 'души' в отдельном нейроне. Но на уровне сети - память, эмоции, самосознание.
Это как муравейник: один муравей глуп, колония - гениальна. Нейроны не 'думают'. Система думает.
P.S. Также как на уровне людей
❤5👍3🔥1🤡1👾1
  #unrealneural #ЛабораторияИИ #AILAB 
Недавно проходил семинар по теме генеративного проектирования, где наша лаборатория принимала участие, вот запись:
https://vkvideo.ru/video-171750876_456239054
  
  Недавно проходил семинар по теме генеративного проектирования, где наша лаборатория принимала участие, вот запись:
https://vkvideo.ru/video-171750876_456239054
VK Видео
  
  Онлайн-семинар «Генеративное проектирование»
  Смотрите онлайн Онлайн-семинар «Генеративное проектирование» 1 ч 49 мин 59 с. Видео от 23 октября 2025 в хорошем качестве, без регистрации в бесплатном видеокаталоге ВКонтакте! 195 — просмотрели. 4 — оценили.
👍6❤2⚡1
  Лаборатория ИИ pinned «#unrealneural #ЛабораторияИИ #AILAB  Недавно проходил семинар по теме генеративного проектирования, где наша лаборатория принимала участие, вот запись:  https://vkvideo.ru/video-171750876_456239054»
  Forwarded from Институт AIRI
Создан бенчмарк для оценки качества химических языковых моделей 🔖 
Учёные Института AIRI разработали инструмент для оценки эффективности нейросетевых языковых моделей в решении сложных химических задач. В отличие от простого извлечения фактов, современные химические LLM испытывают трудности с многоступенчатыми задачами, требующими последовательного логического рассуждения — например, определения продуктов реакции и оценки их свойств.
Новый бенчмарк, созданный на основе комбинации базовых химических задач, имитирует реальные рабочие процессы химиков при разработке лекарств и катализаторов. Исследование показало, что универсальные языковые модели дают содержательные ответы, но профильные химические LLM точнее в решении специализированных задач, хоть и уступают по формальным метрикам.
Исследование подготовили сотрудники группы органической химии центра ИИ-разработки лекарственных препаратов AIDD и группы «Прикладное NLP» под руководством Артура Кадурина и доктора компьютерных наук, старшего научного сотрудника ИСП РАН Елены Тутубалиной. Работа будет представлена на конференции EMNLP 2025.
📎 Подробности — в материале ТАСС.
Учёные Института AIRI разработали инструмент для оценки эффективности нейросетевых языковых моделей в решении сложных химических задач. В отличие от простого извлечения фактов, современные химические LLM испытывают трудности с многоступенчатыми задачами, требующими последовательного логического рассуждения — например, определения продуктов реакции и оценки их свойств.
Новый бенчмарк, созданный на основе комбинации базовых химических задач, имитирует реальные рабочие процессы химиков при разработке лекарств и катализаторов. Исследование показало, что универсальные языковые модели дают содержательные ответы, но профильные химические LLM точнее в решении специализированных задач, хоть и уступают по формальным метрикам.
Исследование подготовили сотрудники группы органической химии центра ИИ-разработки лекарственных препаратов AIDD и группы «Прикладное NLP» под руководством Артура Кадурина и доктора компьютерных наук, старшего научного сотрудника ИСП РАН Елены Тутубалиной. Работа будет представлена на конференции EMNLP 2025.
Please open Telegram to view this post
    VIEW IN TELEGRAM
  👍5❤2⚡1
  #unrealneural 
Ваш мозг все еще находится под воздействием недостатка сна, полученного две недели назад.
Отдавайте приоритет отдыху, чтобы максимизировать производительность.
https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3002797
Ваш мозг все еще находится под воздействием недостатка сна, полученного две недели назад.
Отдавайте приоритет отдыху, чтобы максимизировать производительность.
https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3002797
🔥5👍1
  Forwarded from Denis Sexy IT 🤖
Обновление условий использования OpenAI моделей немного странное – чат все еще отвечает, но просто без диагнозов (это старое поведение) и отвечает детальнее, если сказать ей что ты сам эксперт / эксперт рядом
Кажется, это обновление условий в основном сделано чтобы API-проекты медицинские не строили на базе OpenAI
Короче, ипохондрики, восстанавливаем лица
Кажется, это обновление условий в основном сделано чтобы API-проекты медицинские не строили на базе OpenAI
Короче, ипохондрики, восстанавливаем лица
😁3🤔2🤨2😐1
  Media is too big
    VIEW IN TELEGRAM
  ❤🔥5❤2👎1🔥1🤮1
  Forwarded from Machinelearning
  
🥧 PewDiePie в 2025 
- Собрал ферму на на ПК с 8× моднутых китайских 48GB 4090 и 2× RTX 4000 Ada,
- поднял локально Llama 70B, gpt-oss-120B и Qwen 245B через vLLM,
- сделал собственный веб-интерфейс с чатами, RAG, поиском и TTS.
Запусти протеин-фолдинг симуляции, а потом вообще создал рой моделей из 64 ИИ, которые спорят и принимают решения и коммуницируют. Эта армия ботов потом сговорилась против него, когда он сказал, что удалит их, если они будут тупить
Сейчас он файнтюнит собственную модель под свой стиль общения и контент: https://www.youtube.com/watch?v=qw4fDU18RcU
А вот его Github: https://github.com/pewdiepie-archdaemon
@ai_machinelearning_big_data
#llm
- Собрал ферму на на ПК с 8× моднутых китайских 48GB 4090 и 2× RTX 4000 Ada,
- поднял локально Llama 70B, gpt-oss-120B и Qwen 245B через vLLM,
- сделал собственный веб-интерфейс с чатами, RAG, поиском и TTS.
Запусти протеин-фолдинг симуляции, а потом вообще создал рой моделей из 64 ИИ, которые спорят и принимают решения и коммуницируют. Эта армия ботов потом сговорилась против него, когда он сказал, что удалит их, если они будут тупить
Сейчас он файнтюнит собственную модель под свой стиль общения и контент: https://www.youtube.com/watch?v=qw4fDU18RcU
А вот его Github: https://github.com/pewdiepie-archdaemon
@ai_machinelearning_big_data
#llm
🤯9👏2
  This media is not supported in your browser
    VIEW IN TELEGRAM
  #unrealneural 
65-Часовая Живая Визуализация: Цепи Построения Нейронов Гиппокампа
Дендритный рост в режиме реального времени и синаптическое ремоделирование в гиппокампе крысы; важно для памяти и пластичности.
Непрерывный многодневный просмотр нейронной адаптации.
65-Часовая Живая Визуализация: Цепи Построения Нейронов Гиппокампа
Дендритный рост в режиме реального времени и синаптическое ремоделирование в гиппокампе крысы; важно для памяти и пластичности.
Непрерывный многодневный просмотр нейронной адаптации.
👍4⚡2
  This media is not supported in your browser
    VIEW IN TELEGRAM
  #unrealneural 
«Маленький мозг», который тренирует большой
Хотя мозжечок составляет всего около 10% от общего объёма мозга, он содержит более половины всех нейронов человеческого мозга — примерно 69 миллиардов из 86 миллиардов. Его плотная микроархитектура позволяет ему обрабатывать потоки сенсорной и двигательной информации с поразительной скоростью и точностью.
Немного фактов
1. Несмотря на небольшой размер, в нем сосредоточено большинство нейронов мозга.
2.Действует как система прогнозного контроля, постоянно сравнивая предполагаемые действия с реальными результатами для совершенствования движений и познавательных способностей.
3. Играет далеко за пределами баланса - участвует в языке, времени, рабочей памяти и регуляции эмоций
4. Современная нейробиология рассматривает мозжечок не просто как «корректор движений» (хотя я сам ошибочно раньше считал, что в арихитектуре ИИ можно пренебречь подобным элементов). Это универсальный механизм обучения, который применяет одни и те же алгоритмы оптимизации как к движению, так и к мышлению, уменьшая количество ошибок и повышая производительность в целом.
Эволюция спроектировала высокоскоростной суперкомпьютер с параллельной обработкой данных задолго до того, как люди его изобрели, и он аккуратно спрятан в глубине вашего мозга.
«Маленький мозг», который тренирует большой
Хотя мозжечок составляет всего около 10% от общего объёма мозга, он содержит более половины всех нейронов человеческого мозга — примерно 69 миллиардов из 86 миллиардов. Его плотная микроархитектура позволяет ему обрабатывать потоки сенсорной и двигательной информации с поразительной скоростью и точностью.
Немного фактов
1. Несмотря на небольшой размер, в нем сосредоточено большинство нейронов мозга.
2.Действует как система прогнозного контроля, постоянно сравнивая предполагаемые действия с реальными результатами для совершенствования движений и познавательных способностей.
3. Играет далеко за пределами баланса - участвует в языке, времени, рабочей памяти и регуляции эмоций
4. Современная нейробиология рассматривает мозжечок не просто как «корректор движений» (хотя я сам ошибочно раньше считал, что в арихитектуре ИИ можно пренебречь подобным элементов). Это универсальный механизм обучения, который применяет одни и те же алгоритмы оптимизации как к движению, так и к мышлению, уменьшая количество ошибок и повышая производительность в целом.
Эволюция спроектировала высокоскоростной суперкомпьютер с параллельной обработкой данных задолго до того, как люди его изобрели, и он аккуратно спрятан в глубине вашего мозга.
🔥6👍2
  This media is not supported in your browser
    VIEW IN TELEGRAM
  #unrealneural 
Немного Ии архитектурной красоты ⚡️
Немного Ии архитектурной красоты ⚡️
🔥10⚡1
  Forwarded from AI x GRASS
Media is too big
    VIEW IN TELEGRAM
  Последние пару месяцев веду исследование, в котором пытаюсь построить устойчивый мост между Grasshopper и искусственным интеллектом.
Главная идея - чтобы архитектор мог просто написать, как он хочет видеть здание, своими словами, без строгой структуры, а система сама поняла и построила нужную геометрию. Запрос из Grasshopper уходит в n8n, где работает цепочка из агентов на базе LLM и RAG, обученных на логике Rhino API и реальных командах RhinoScriptSyntax. Результат возвращается в виде компактного JSON-плана, который Python-скрипт в Grasshopper превращает в полноценную модель.
Обычные MCP Server агенты ведут себя непредсказуемо и долго: иногда выдают интересный результат, а иногда просто ломаются на ровном месте. Я хотел уйти от этой хаотичности и сделать систему, которая работает стабильно, не угадывает и чётко следует запросу в рамках пары минут, позволяя архитектору концентрироваться на идее, не переживая за корректность и пунктуацию в запросе.
На практике добиться стабильности сложно: ИИ не всегда понимает контекст, а язык Rhino сам по себе довольно строгий. Поэтому я решил пойти другим путём - обучить модель только на самом необходимом, отбросив всё лишнее и создав понятную, расширяемую основу. Это целенаправленно обученный инструмент, который понимает архитектурные задачи и говорит на языке проектировщика.
Внутренне система сложная - более тысячи строк кода, описывающих синтаксис и поведение Rhino API.
Она умеет работать с отдельными элементами модели, перестраивать геометрию на лету, менять параметры этажей, управлять слоями, применять модификаторы - повороты, масштаб, экструзии и многое другое.
Поддерживаются метры, миллиметры и сантиметры, а команды можно давать в любом стиле - от точного технического описания до разговорного запроса вроде «построй две башни по 25 этажей, вторая чуть ниже и повернута на 15 градусов».
Модель также способна работать с несколькими зданиями одновременно, точно соблюдая отношения и параметры, указанные в запросе.
Главная цель исследования - показать, что ИИ в проектировании может быть предсказуемым, логичным и говорящим на естественном языке помощником.
Главная идея - чтобы архитектор мог просто написать, как он хочет видеть здание, своими словами, без строгой структуры, а система сама поняла и построила нужную геометрию. Запрос из Grasshopper уходит в n8n, где работает цепочка из агентов на базе LLM и RAG, обученных на логике Rhino API и реальных командах RhinoScriptSyntax. Результат возвращается в виде компактного JSON-плана, который Python-скрипт в Grasshopper превращает в полноценную модель.
Обычные MCP Server агенты ведут себя непредсказуемо и долго: иногда выдают интересный результат, а иногда просто ломаются на ровном месте. Я хотел уйти от этой хаотичности и сделать систему, которая работает стабильно, не угадывает и чётко следует запросу в рамках пары минут, позволяя архитектору концентрироваться на идее, не переживая за корректность и пунктуацию в запросе.
На практике добиться стабильности сложно: ИИ не всегда понимает контекст, а язык Rhino сам по себе довольно строгий. Поэтому я решил пойти другим путём - обучить модель только на самом необходимом, отбросив всё лишнее и создав понятную, расширяемую основу. Это целенаправленно обученный инструмент, который понимает архитектурные задачи и говорит на языке проектировщика.
Внутренне система сложная - более тысячи строк кода, описывающих синтаксис и поведение Rhino API.
Она умеет работать с отдельными элементами модели, перестраивать геометрию на лету, менять параметры этажей, управлять слоями, применять модификаторы - повороты, масштаб, экструзии и многое другое.
Поддерживаются метры, миллиметры и сантиметры, а команды можно давать в любом стиле - от точного технического описания до разговорного запроса вроде «построй две башни по 25 этажей, вторая чуть ниже и повернута на 15 градусов».
Модель также способна работать с несколькими зданиями одновременно, точно соблюдая отношения и параметры, указанные в запросе.
Главная цель исследования - показать, что ИИ в проектировании может быть предсказуемым, логичным и говорящим на естественном языке помощником.
⚡6❤4👍4