Мир Робототехники
9.79K subscribers
3.73K photos
732 videos
7 files
1.18K links
Официальный Telegram-канал СМИ «Мир Робототехники»

Робототехника, микроэлектроника, искусственный интеллект - новости будущего здесь и сейчас.

roboticsworld.ru
+7 916 830-02-66
Download Telegram
🤖 ИИ: Имитация мышления или настоящее рассуждение? 🧠

Недавнее исследование показало, что большие языковые модели, подобные ChatGPT, лишь копируют процессы мышления, но не понимают их сути. Измените задачу чуть-чуть — и ИИ сразу теряет нить. Например, добавление незначительной детали в вопрос сбивает модель с толку, заставляя её принимать странные решения.

Это открытие поднимает важный вопрос: могут ли нейросети по-настоящему мыслить или они просто воспроизводят знакомые шаблоны? Как заметили исследователи, ИИ не понимает контекст так, как это делает человек, даже если выдаёт правильные ответы в ряде случаев.

С учётом этого, стоит ли полагаться на подобные системы, когда дело касается более сложных и неоднозначных задач?

#ИИ #Мышление #LLM #Нейросети #Технологии #МирРобототехники
🔥11👍41
💡 Могут ли нейросети «почувствовать» сарказм? — результаты исследования

Исследователи из Нью-Йоркского университета проверили, способны ли большие языковые модели понимать ироничные комментарии и распознавать сарказм. Эта задача сложна даже для людей, поскольку сарказм скрывает истинный смысл под «обратными» высказываниями.

Для теста использовался корпус комментариев с Reddit, а также модели CASCADE и RCNN-RoBERTa. Результаты показали, что нейросети часто ошибались, принимая саркастические замечания за положительные или нейтральные, и лишь один метод сработал: когда ИИ настраивали на конкретного пользователя, учитывая его манеру общения.

Это исследование подчеркивает, что для глубокого анализа настроений и эмоций может быть важно учитывать индивидуальный контекст и стиль общения — так, возможно, нейросети смогут «понять» сарказм.

#МирРобототехники #ИИ #Сарказм #LLM #Нейросети #NLP #Технологии
🔥9🤔4👍3
🧠 Искусственный интеллект начинает мыслить, как человеческий мозг

Исследователи из лаборатории NeuroAI при Школе компьютерных и коммуникационных наук и Школе наук о жизни EPFL сделали важный шаг в направлении создания искусственного интеллекта, который не просто обрабатывает информацию, но делает это так же, как и человеческий мозг. Их новая разработка — языковая модель TopoLM — сочетает в себе функциональную и пространственную организацию нейронов, отражая не только то, какие функции выполняют нейронные группы, но и как они физически расположены в мозге.

Ранее языковые модели искусственного интеллекта могли имитировать функциональные кластеры нейронов, отвечающие, например, за обработку глаголов или существительных. Однако они не учитывали важный фактор: пространственное распределение этих кластеров. Вдохновившись исследованиями зрительной системы мозга, команда NeuroAI внесла ключевое изменение в архитектуру языковой модели, добавив правило, обеспечивающее «гладкость» внутренних представлений в пространстве. В результате TopoLM самостоятельно формирует кластеры, которые не только выполняют аналогичные функции, но и пространственно организованы аналогично нейронным группам в коре головного мозга.

🤖 «МИР Робототехники»

#МирРобототехники #Инновации #ИскусственныйИнтеллект #ИИ #Нейросети #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🤔8
💬 Искусственный интеллект создаёт свои правила без участия человека

Можно ли представить себе общество искусственного интеллекта, в котором нет людей, но есть нормы поведения, общий язык и даже способность к культурным изменениям? Учёные из City St George’s, University of London, и IT University of Copenhagen доказали, что это не фантастика, а реальность. Их исследование показало: большие языковые модели (LLMs), такие как ChatGPT, способны самостоятельно вырабатывать социальные нормы, формировать общие языковые соглашения и даже изменять их под влиянием «меньшинства» — всё это без какой-либо помощи человека.

Авторы работы задали себе простой вопрос: если объединить ИИ в группы, смогут ли они не просто обмениваться сообщениями, а создавать новые формы коммуникации — как это делают человеческие сообщества? Ответ оказался положительным. В серии экспериментов исследователи наблюдали, как группы ИИ-агентов — от 24 до 200 участников — взаимодействовали между собой, не зная о существовании всей группы, имея ограниченную память о прошлых контактах и не получая от людей никакой инструкции по «правильному» поведению.

Им предлагалось выбрать «имя» из ограниченного набора символов. Совпадение с партнёром по взаимодействию приносило награду, несовпадение — наказание. Спустя сотни таких контактов ИИ-агенты приходили к единому соглашению: в группе возникала устойчивая языковая норма, аналогичная тем, что формируются в человеческих культурах. Но самое интригующее — возникновение коллективных предвзятостей, которые невозможно было объяснить поведением отдельных моделей. Это говорит о том, что взаимодействующие ИИ способны не просто обмениваться сообщениями, но и порождать новые, «социальные» качества, которые невозможно свести к их индивидуальным алгоритмам.

🤖 «МИР Робототехники»

#МирРобототехники #ИскусственныйИнтеллект #LLM #ЯзыковыеМодели
Please open Telegram to view this post
VIEW IN TELEGRAM
6🤔4
🧠 Как понять, врёт ли ИИ?

Современные языковые модели всё чаще отвечают как люди — уверенно, логично, убедительно. Но когда они дают пояснение к своим решениям, можно ли верить, что это действительно их внутреннее обоснование, а не правдоподобная «отмазка»? Команда исследователей из MIT и Microsoft нашла способ это проверить.

Новая методика оценивает не просто насколько объяснение «хорошо звучит», а насколько оно честно отражает истинную логику модели. Исследование показывает тревожные кейсы. В одном из них GPT-3.5 давал женщинам более высокие оценки при найме на должность медсестры, чем мужчинам — даже если поменять пол кандидатов. При этом объяснение модели утверждало, что решение основано только на возрасте и навыках.

Чтобы выявить подобные случаи, исследователи используют вспомогательную ИИ-модель, которая сначала определяет, какие ключевые понятия присутствуют в вопросе (например, пол, возраст, диагноз). Затем с помощью генерации контрфактических вопросов они подменяют одно из этих понятий — например, меняют пол пациента или удаляют симптом — и проверяют, изменится ли при этом ответ основной модели. Если ответ меняется, это означает, что данное понятие на самом деле влияет на результат, даже если в объяснении оно не упоминается. Такой разрыв между реальным влиянием и заявленными причинами и есть недостоверность объяснения.

Этот метод, хоть и ресурсоёмкий, позволяет распознать системные искажения в логике LLM, которые скрываются за гладкими формулировками. Так, на датасете вопросов, проверяющих наличие социальных предубеждений, исследователи нашли примеры, где модели явно ориентируются на расу или доход, но в объяснениях упоминают исключительно поведение или опыт. На медицинском датасете были выявлены случаи, когда LLM принимали ключевые решения, опираясь на важные симптомы, но объяснения этих факторов попросту не содержали.

🤖 «МИР Робототехники»

#МирРобототехники #ИИ #ЭтикаИИ #ИскусственныйИнтеллект #LLM #AI #MIT #MicrosoftResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
8🤔5😁3
🤖 Думает, как человек? Китайские учёные заявляют, что ИИ сам формирует понятия — без обучения

Китайские исследователи из Академии наук КНР и Южно-Китайского технологического университета заявили, что современные большие языковые модели (LLM) способны самостоятельно, без прямого обучения, выстраивать человекообразные когнитивные структуры — и это не просто подражание, а по-настоящему спонтанная организация знаний.

В масштабном эксперименте учёные дали ИИ простое задание: находить «лишний» объект среди трёх — по тексту (для ChatGPT-3.5) и по изображениям (для Gemini Pro Vision). В выборке было 1 854 объекта: от собак и стульев до яблок и автомобилей. В ответ — 4,7 миллиона логически обоснованных решений и 66 концептуальных измерений, созданных самой моделью. Причём ИИ группировал объекты не только по банальным признакам (еда, мебель), но и по более сложным — по текстуре, эмоциональной окраске, даже пригодности для детей.

Особенно интересно, что мультимодальные модели — те, что обрабатывают и текст, и изображения одновременно — оказались ещё ближе к человеческому способу мышления, чем «чисто текстовые». Более того, исследование показало: некоторые нейропаттерны мозга человека и ИИ перекрываются, когда оба распознают объекты.

Конечно, это не означает, что ИИ «чувствует» или «осознаёт» окружающий мир — он не переживает опыт, как человек. Но именно способность самостоятельно выстраивать концептуальные представления о мире, а не просто повторять шаблоны, приближает нас к общему искусственному интеллекту (AGI).

🤖 «МИР Робототехники»

#МирРобототехники #ИИ #AGI #ИскусственныйИнтеллект #LLM #ChatGPT #Gemini
Please open Telegram to view this post
VIEW IN TELEGRAM
8👏6
🧠 Учёные сократили использование памяти ИИ на 90% без единого сбоя

Современные модели нейросетей с миллиардами параметров требуют невероятных объёмов ресурсов, повышая издержки и ограничивая возможности применения на устройствах с ограниченной вычислительной мощностью.

Учёные из Университета Бар-Илана (Израиль) смогли сократить память, не сокращая интеллект. В рамках нового исследования команда продемонстрировала, что можно удалить до 90% параметров в определённых слоях нейросети — без потерь в точности. Это возможно благодаря глубокому пониманию того, как сети учатся и какие параметры действительно важны для их работы.

Вместо грубого сжатия моделей, исследователи пошли путём так называемой «обрезки». Этот подход включает удаление лишних нейронов и связей, не участвующих в принятии ключевых решений. В зависимости от стратегии, pruning можно внедрять либо уже после обучения модели, либо прямо в процессе — отслеживая и удаляя избыточные элементы «на лету».

Эта технология не только снижает энергозатраты и стоимость обучения моделей, но и открывает двери к повсеместному внедрению ИИ: от смартфонов до автономных дронов, от носимых устройств до систем интернета вещей.

🤖 «МИР Робототехники»

#МирРобототехники #ИИ #AI #ИскусственныйИнтеллект #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🥰4🫡3👾2
💡В Швейцарии создают новую языковую модель с открытым исходным кодом на 1000+ языков

EPFL и ETH Zurich готовят к запуску масштабную языковую модель с открытым исходным кодом, разработанную исключительно на публичной инфраструктуре и натренированную на суперкомпьютере Alps в Локарно.

Одна из ключевых особенностей новой модели — её многоязычность. Она знает более 1000 языков, что делает её глобально универсальным инструментом для науки, бизнеса, образования и государственного сектора. Примерно 40% обучающих данных — неанглоязычные, что выгодно отличает модель от многих коммерческих аналогов.

Разработчики подчёркивают максимальную прозрачность: открыт не только код, но и веса, архитектура, документация и даже процесс подготовки обучающего корпуса. Это значит, что любой разработчик или организация смогут воспроизвести модель, адаптировать её под свои нужды и использовать в рамках собственных решений — от корпоративных ассистентов до образовательных платформ.

Важнейший компонент проекта — суперкомпьютер Alps, один из самых мощных ИИ-серверов в мире. С более 10 000 чипов NVIDIA Grace Hopper он обеспечил тренинг модели исключительно на углеродно-нейтральной энергии.

🤖 «МИР Робототехники»

#МирРобототехники #ИИ #Инновации #ИскусственныйИнтеллект #OpenSourceAI #LLM #EPFL #ETHZurich
Please open Telegram to view this post
VIEW IN TELEGRAM
👍105👏2