#unrealneural #AILAB #ЛабораторияИИ #вкопилкуэрудита
Парадокс "Комнаты Мари" — мысленный эксперимент Фрэнка Джексона (1982) о природе сознания и субъективного опыта. Мари, учёная, знает всё о цвете (физика, нейрофизиология), но живёт в чёрно-белой комнате и никогда не видела цвета. Увидев красный помидор, узнаёт ли она что-то новое?
Парадокс "Комнаты Мари" показывает, что если учёная Мари, зная всё о цвете, но никогда не видевшая его, узнаёт что-то новое, увидев красный помидор, это оспаривает физикализм, утверждая, что субъективный опыт (квалиа) не сводится к физическим фактам. В контексте ИИ это ставит вопрос, может ли ИИ, зная всё о цвете или эмоциях, испытывать их, или он ограничен симуляцией, не обладая сознанием. Противники физикализма считают, что квалиа уникальны, тогда как сторонники утверждают, что знание Мари уже включает ощущение в другой форме.
Парадокс подчёркивает разрыв между обработкой данных ИИ и человеческим опытом, что важно для обсуждений пределов ИИ, его способности достичь сознания, этических вопросов, связанных с принятием решений без квалиа, и разработки интерпретируемого ИИ. Даже продвинутый ИИ, вероятно???, не способен переживать субъективный опыт, что ограничивает его в имитации человеческого сознания.
Парадокс "Комнаты Мари" — мысленный эксперимент Фрэнка Джексона (1982) о природе сознания и субъективного опыта. Мари, учёная, знает всё о цвете (физика, нейрофизиология), но живёт в чёрно-белой комнате и никогда не видела цвета. Увидев красный помидор, узнаёт ли она что-то новое?
Парадокс "Комнаты Мари" показывает, что если учёная Мари, зная всё о цвете, но никогда не видевшая его, узнаёт что-то новое, увидев красный помидор, это оспаривает физикализм, утверждая, что субъективный опыт (квалиа) не сводится к физическим фактам. В контексте ИИ это ставит вопрос, может ли ИИ, зная всё о цвете или эмоциях, испытывать их, или он ограничен симуляцией, не обладая сознанием. Противники физикализма считают, что квалиа уникальны, тогда как сторонники утверждают, что знание Мари уже включает ощущение в другой форме.
Парадокс подчёркивает разрыв между обработкой данных ИИ и человеческим опытом, что важно для обсуждений пределов ИИ, его способности достичь сознания, этических вопросов, связанных с принятием решений без квалиа, и разработки интерпретируемого ИИ. Даже продвинутый ИИ, вероятно???, не способен переживать субъективный опыт, что ограничивает его в имитации человеческого сознания.
🤔4💯2❤1⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Finch 3d
Эту генерацию планировок в Revit собираются демонстрировать в режиме реального времени на AU2025 на следующей неделе🤯
выглядит очень интересно и круто
Finch 3d
Эту генерацию планировок в Revit собираются демонстрировать в режиме реального времени на AU2025 на следующей неделе🤯
выглядит очень интересно и круто
👍7🔥2
Forwarded from Наука, Техника и нейровайб
AirPods 3 Pro перед вами — наушники научились СИНХРОННО переводить иностранную речь на ваш язык.
Переводчики начали переживать за свою работу.
Переводчики начали переживать за свою работу.
❤5👍3👏1
#unrealneural
Vid2Sim: реалистичное и интерактивное моделирование городской навигации на основе видео
Vid2Sim — это новая платформа, которая преобразует монокулярные видео в фотореалистичные и физически интерактивные среды моделирования для обучения воплощенных агентов с минимальным разрывом между симуляцией и реальностью.
https://github.com/Vid2Sim/Vid2Sim
Vid2Sim: реалистичное и интерактивное моделирование городской навигации на основе видео
Vid2Sim — это новая платформа, которая преобразует монокулярные видео в фотореалистичные и физически интерактивные среды моделирования для обучения воплощенных агентов с минимальным разрывом между симуляцией и реальностью.
https://github.com/Vid2Sim/Vid2Sim
👍3🔥1
Forwarded from Data Secrets
Media is too big
VIEW IN TELEGRAM
Claude теперь умеет генерировать и редактировать pdf-ки, табличные файлы и презентации
Не слишком часто пишем про новые фичи ботов, но это приятная и интересная. Даете промпт – а вам на выход файл. Или вы файл – вам на выход отредактированный вариант.
Работает это так: у Claude есть доступ к частному окружению, в котором он пишет и запускает код для создания файлов, которые затем отправляет пользователю в чат.
Теоретически такая система открывает много возможностей: продвинутый анализ данных, обработка всяких фото/видо/аудио, да и вообще работа со всеми видами файлов. Так что ждем и других агентских фичей от Anthropic, а пока наслаждаемся генерацией таблиц и документов.
www.anthropic.com/news/create-files
Не слишком часто пишем про новые фичи ботов, но это приятная и интересная. Даете промпт – а вам на выход файл. Или вы файл – вам на выход отредактированный вариант.
Работает это так: у Claude есть доступ к частному окружению, в котором он пишет и запускает код для создания файлов, которые затем отправляет пользователю в чат.
Теоретически такая система открывает много возможностей: продвинутый анализ данных, обработка всяких фото/видо/аудио, да и вообще работа со всеми видами файлов. Так что ждем и других агентских фичей от Anthropic, а пока наслаждаемся генерацией таблиц и документов.
www.anthropic.com/news/create-files
👍4❤2🔥1
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Там ребята из ETH и MATS запилили интересную статью: придумали, как заставить текстовые нейронки подсвечивать свои галлюцинации прямо во время ответа.
Очень часто бывает так, что LLM пишут простыню, где половина фактов реальные, а половина уровня «Альберт Эйнштейн изобрёл Гугл в 2007 году». Поймать это раньше можно было только длинными и дорогими проверками через поиск.
Теперь же на внутренние слои модели повесили детектор ерунды. И он по токенам в реальном времени понимает, где имя/дата/ссылка выдуманы.
В итоге на длинных текстах детектор стал ловить враньё почти в полтора раза лучше, чем старые методы.
В идеале это приведёт к тому, что модели научатся не только отвечать, но и честно показывать, где они уверены, а где сами сомневаются.
Тут сама статья.
Очень часто бывает так, что LLM пишут простыню, где половина фактов реальные, а половина уровня «Альберт Эйнштейн изобрёл Гугл в 2007 году». Поймать это раньше можно было только длинными и дорогими проверками через поиск.
Теперь же на внутренние слои модели повесили детектор ерунды. И он по токенам в реальном времени понимает, где имя/дата/ссылка выдуманы.
В итоге на длинных текстах детектор стал ловить враньё почти в полтора раза лучше, чем старые методы.
В идеале это приведёт к тому, что модели научатся не только отвечать, но и честно показывать, где они уверены, а где сами сомневаются.
Тут сама статья.
👍3⚡2
Forwarded from NN
Топовый генератор видео Hailuo AI стал полностью бесплатным на целую неделю.
Модель Hailuo 02 умеет создавать ролики, неотличимые от кадров из фильмов. Она выдает реалистичные кадры и не ломает законы физики.
Забираем по ссылке. Ограничений на число генераций нет до 17 сентября.
Модель Hailuo 02 умеет создавать ролики, неотличимые от кадров из фильмов. Она выдает реалистичные кадры и не ломает законы физики.
Забираем по ссылке. Ограничений на число генераций нет до 17 сентября.
❤2⚡2✍1👍1