В контексте разговоров про ИИ все чаще всплывает вопрос о сознании. Будет ли оно у ИИ? Или оно уже есть?
Я заметил, что в этих разговорах под словом «сознание» часто подразумевается что-то разное. Так что решил написать про эти разные «виды сознания».
1. Наличие мотивации, целей, желаний и т.д.
Заметил, что многие под сознанием подразумевают именно это. По сути, это почти то же, что в области ИИ сейчас называют агентностью. При этом, агентность с каждым годом становится все лучше. Поэтому, если под сознанием вы подразумеваете этот вариант, то оно уже есть, хоть и пока примитивное.
2. Самосознание
Это когда ИИ понимает, кто он, что он делает, чем он отличается от других, и т.д. Тут я опять считаю, что ИИ уже достиг этого еще пару лет назад, хоть и в очень простом виде. Как и многие подобные характеристики, самосознание - это скорее градиент, то есть, ИИ может быть более или менее самосознательным, а не просто "есть самосознание" или "нет".
3. То самое сознание
Квалиа, трудная проблема сознания и т.д. Когда я слышу про сознание у ИИ, в первую очередь думаю именно про этот вариант. Кто-то считает, что такое сознание не может быть у ИИ. Другие считают, что у достаточно сложного ИИ оно как-то появится. Но доказать ни то, ни другое по определению невозможно, а значит, и разницы между этими вариантами нет.
4. Понимание того, что ИИ делает
Допустим, ИИ пишет текст. Понимает ли он, что он пишет? Какой эксперимент можно провести, чтобы отличить "понимание" от "непонимания"? Тут опять мы приходим к тому, что может быть много определений, и каждый подразумевает в этом что-то свое.
Что об этом думаете? Может быть, есть другие более удобные определения сознания? И будет ли оно у ИИ?
Я заметил, что в этих разговорах под словом «сознание» часто подразумевается что-то разное. Так что решил написать про эти разные «виды сознания».
1. Наличие мотивации, целей, желаний и т.д.
Заметил, что многие под сознанием подразумевают именно это. По сути, это почти то же, что в области ИИ сейчас называют агентностью. При этом, агентность с каждым годом становится все лучше. Поэтому, если под сознанием вы подразумеваете этот вариант, то оно уже есть, хоть и пока примитивное.
2. Самосознание
Это когда ИИ понимает, кто он, что он делает, чем он отличается от других, и т.д. Тут я опять считаю, что ИИ уже достиг этого еще пару лет назад, хоть и в очень простом виде. Как и многие подобные характеристики, самосознание - это скорее градиент, то есть, ИИ может быть более или менее самосознательным, а не просто "есть самосознание" или "нет".
3. То самое сознание
Квалиа, трудная проблема сознания и т.д. Когда я слышу про сознание у ИИ, в первую очередь думаю именно про этот вариант. Кто-то считает, что такое сознание не может быть у ИИ. Другие считают, что у достаточно сложного ИИ оно как-то появится. Но доказать ни то, ни другое по определению невозможно, а значит, и разницы между этими вариантами нет.
4. Понимание того, что ИИ делает
Допустим, ИИ пишет текст. Понимает ли он, что он пишет? Какой эксперимент можно провести, чтобы отличить "понимание" от "непонимания"? Тут опять мы приходим к тому, что может быть много определений, и каждый подразумевает в этом что-то свое.
Что об этом думаете? Может быть, есть другие более удобные определения сознания? И будет ли оно у ИИ?
11🐳150👍100🤔51❤22🤡8🔥7👾7👻5👎3😭3🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
3🤯184👍99🤔35❤25😁19🔥13❤🔥8🐳5🤓5🕊2🤪2
This media is not supported in your browser
VIEW IN TELEGRAM
😁113🐳55🤔19🔥7👏7👀6❤5❤🔥3🗿3🥰2🆒2
This media is not supported in your browser
VIEW IN TELEGRAM
❤110😁86😭57🤣41👍28🐳19🔥16🤯4😱4🗿4😈3
This media is not supported in your browser
VIEW IN TELEGRAM
🔥253👍64😭38❤12💩11🤨10❤🔥6👏6😍6🆒6👌3
Новое видео!
https://www.youtube.com/watch?v=8aKQDnIEEPQ
https://www.youtube.com/watch?v=8aKQDnIEEPQ
YouTube
Сможет ли НЕЙРОСЕТЬ написать игру на МОЕМ ДВИЖКЕ?
Арендуйте удаленный рабочий стол VDI от Selectel для быстрой и безопасной работы над проектами: https://slc.tl/3otcw
Telegram: https://t.iss.one/onigiriScience
В этом видео я показываю, как создавал свой небольшой игровой движок на typescript с webgl. А так…
Telegram: https://t.iss.one/onigiriScience
В этом видео я показываю, как создавал свой небольшой игровой движок на typescript с webgl. А так…
30❤128🔥68❤🔥19👍12🤔7💩5🐳5🥰2🤯2🆒1
4D minecraft с проекцией на 3D изображение
* https://wxyhly.github.io/4dViewer/minecraft4d/ - игра
* https://wxyhly.github.io/programs/mc4tutorial.html - туториал
(этот пост - тест новой фичи по предложению постов в телеге, написал некоторый подписчик🥬 )
* https://wxyhly.github.io/4dViewer/minecraft4d/ - игра
* https://wxyhly.github.io/programs/mc4tutorial.html - туториал
(этот пост - тест новой фичи по предложению постов в телеге, написал некоторый подписчик
Please open Telegram to view this post
VIEW IN TELEGRAM
Blog de Hqak (WXYHLY)
Minecraft4D Tutorial
(Minecraft4D中文教程)Minecraft4D is a sandbox game in 4th spatial dimiension. There are infinity generated terrains, rivers, villages and different biomes. You can build and destroy, fly and exploit. It i
🔥121🤯53👍11❤9👾4🥰3😨3🤔2💩2🐳2🤡1
Я там в видео обещал гайд на треугольник, вот и он. В двух частях
Код: https://github.com/ArtemOnigiri/minimal-webgl-example
Код: https://github.com/ArtemOnigiri/minimal-webgl-example
15❤115🔥39👍25🥰8🤔4🤩3💩3😍2🐳2🆒2🎉1
Какими нейросетями я пользуюсь?
Начну с моделей от OpenAI:
gpt-4o - в основном для простых общих вопросов
gpt-4.5 - одна из лучших моделей в для написания красивого текста и переводов на другие языки. 14 июля ее закроют😒
Говорят, что gemeni 2.5 pro такая же в написании текстов, а может и лучше, но я ей пока не пользовался
gpt-4.1 - использую больше для несложных технических вопросов
o3 - для сложных вопросов. Например, для решения математических задач, для продумывания архитектуры кода, для улучшения и переписывания кода, где я сам не знаю, как это сделать
o4-mini-high - сначала не обращал внимания на эту модель, но в последнее время все чаще использую вместо o3. Работает быстрее, на некоторые вопросы отвечает лучше, но не всегда. Поэтому можно один вопрос отправлять сразу и в o3, и в o4-mini-high, так еще лучше
Картинки:
gpt-image-1 - заменила для меня почти все другие генераторы картинок. Вроде как это и есть gpt-4o, которая благодаря своей мультимодальности делает изображения, но часто ее называют отдельной моделью. Это та, которая генерирует картинки в chatgpt. Но через chatgpt она генерирует их часто по 1 штуке и в неверном соотношении сторон. Гораздо удобнее ей пользоваться через их же отдельный сайт sora.com
Раньше еще пользовался Midjourney и локальным Stable Diffusion, но с появлением gpt-image-1 использую почти только его. Хотя иногда еще пользуюсь:
Photoshop - по текущим меркам встроенная модель уже так себе, но зато ей можно быстро и удобно что-то поправить
Illustartor - да, в нем тоже есть генерация картинок, да еще и векторных, что иногда бывает нужно
Вайбкодинг:
Github copilot - большую часть кода пишет за меня. Начал пользоваться им еще с бета версии и остался на нем. Еще из популярных существуют Cursor и Windsurf, у них даже многие фичи появляются раньше, но в целом, сейчас они довольно похожи.
В самом копайлоте обычно использую claude-4 - это наверно самая оптимальная на данный момент модель для кода. Реже использую gpt-4.1 для простых задач
А какими вы пользуетесь?
Начну с моделей от OpenAI:
gpt-4o - в основном для простых общих вопросов
gpt-4.5 - одна из лучших моделей в для написания красивого текста и переводов на другие языки. 14 июля ее закроют
Говорят, что gemeni 2.5 pro такая же в написании текстов, а может и лучше, но я ей пока не пользовался
gpt-4.1 - использую больше для несложных технических вопросов
o3 - для сложных вопросов. Например, для решения математических задач, для продумывания архитектуры кода, для улучшения и переписывания кода, где я сам не знаю, как это сделать
o4-mini-high - сначала не обращал внимания на эту модель, но в последнее время все чаще использую вместо o3. Работает быстрее, на некоторые вопросы отвечает лучше, но не всегда. Поэтому можно один вопрос отправлять сразу и в o3, и в o4-mini-high, так еще лучше
Картинки:
gpt-image-1 - заменила для меня почти все другие генераторы картинок. Вроде как это и есть gpt-4o, которая благодаря своей мультимодальности делает изображения, но часто ее называют отдельной моделью. Это та, которая генерирует картинки в chatgpt. Но через chatgpt она генерирует их часто по 1 штуке и в неверном соотношении сторон. Гораздо удобнее ей пользоваться через их же отдельный сайт sora.com
Раньше еще пользовался Midjourney и локальным Stable Diffusion, но с появлением gpt-image-1 использую почти только его. Хотя иногда еще пользуюсь:
Photoshop - по текущим меркам встроенная модель уже так себе, но зато ей можно быстро и удобно что-то поправить
Illustartor - да, в нем тоже есть генерация картинок, да еще и векторных, что иногда бывает нужно
Вайбкодинг:
Github copilot - большую часть кода пишет за меня. Начал пользоваться им еще с бета версии и остался на нем. Еще из популярных существуют Cursor и Windsurf, у них даже многие фичи появляются раньше, но в целом, сейчас они довольно похожи.
В самом копайлоте обычно использую claude-4 - это наверно самая оптимальная на данный момент модель для кода. Реже использую gpt-4.1 для простых задач
А какими вы пользуетесь?
Please open Telegram to view this post
VIEW IN TELEGRAM
❤154🔥39👍31💩11👻9🤔5🤯5🐳5🥰4🤮4🤡2
Вы скорее всего видели такие картинки с червоточинами: две области пространства соединены туннелем.
Следующим постом выложу кусочек из✨ предстоящего видео с симуляцией такого в 2D
Забавно, что на картинке нижняя часть подписана как "другая вселенная", хотя она явно соединена, а значит, это часть той же вселенной.
Но можно придумать этому объяснение: если эта нижняя часть достаточно удалена от верхней, то такое иногда называют "другой вселенной", так как из-за расширения пространства она удаляется от верхней быстрее скорости света, а значит, уже не связана причинно-следственно с верхней частью (если не считать червоточину).
Следующим постом выложу кусочек из
Но можно придумать этому объяснение: если эта нижняя часть достаточно удалена от верхней, то такое иногда называют "другой вселенной", так как из-за расширения пространства она удаляется от верхней быстрее скорости света, а значит, уже не связана причинно-следственно с верхней частью (если не считать червоточину).
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥194👍36❤🔥24❤15☃11🤯8🤔6🐳6🥰2👏2🍌2
This media is not supported in your browser
VIEW IN TELEGRAM
Делаем дыру в 3D объекте и смотрим симуляцию того, как это выглядело бы для 2D-существа, живущего на поверхности этого объекта. С учетом того, что свет тоже всегда летит по этой поверхности.
Получается появление червоточины в "другую вселенную"🕳
(Ну ли если бы, конечно, это существо могло бы охватить своим зрением все вокруг)
Получается появление червоточины в "другую вселенную"
(Ну ли если бы, конечно, это существо могло бы охватить своим зрением все вокруг)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍199🤯80❤26🔥22🤔15❤🔥7🤡5🐳5🥰4☃3😱2
Наверное все стали забывать, но вот так выглядели реалистичные нейросетевые изображения с несколькими объектами еще 5 лет назад.
Да, один конкретный объект тогда уже неплохо получалось генерировать. А вот к текущему развитию нейросетей привело уже изобретение моделей на основе диффузии только в 2020 году. В то время как первая крупная модель - DALL-E стала доступной только во второй половине 2022 года.
Да, один конкретный объект тогда уже неплохо получалось генерировать. А вот к текущему развитию нейросетей привело уже изобретение моделей на основе диффузии только в 2020 году. В то время как первая крупная модель - DALL-E стала доступной только во второй половине 2022 года.
🐳158👍57❤26😱13🔥11🤯10☃5💩4🥰3⚡2❤🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
В одном из предыдущих постов показывал, как будет выглядеть появление червоточины в 2D-пространстве. Теперь показываю, как выглядит прохождение через нее.
Можно заметить необычный эффект, возникающий в неевклидовых пространствах - голономию. Она заключается в том, что при движении по пространству, помимо самого перемещения, происходит еще и поворот, даже если мы сами не поворачивались. Поэтому ориентация пространства в этом видео постоянно меняется
Если видео не проигрывается - в комментах есть оно же в другом формате
Можно заметить необычный эффект, возникающий в неевклидовых пространствах - голономию. Она заключается в том, что при движении по пространству, помимо самого перемещения, происходит еще и поворот, даже если мы сами не поворачивались. Поэтому ориентация пространства в этом видео постоянно меняется
Если видео не проигрывается - в комментах есть оно же в другом формате
1👍260🔥104❤🔥33🤯24❤21🆒9🥰7🤩5🐳4🤔3🤓2
This media is not supported in your browser
VIEW IN TELEGRAM
❤207😁137🔥40👍26🥰5🆒5🤔4🍓4😱3🦄3💩1
ИИ каждый год улучшается более чем в 3 раза
Как определить темпы развития ИИ-моделей? Самый интересный вариант, что я видел, выглядит так: берем самые разные задачи, которые человек выполняет за компьютером, и смотрим, сколько в среднем у него уходит на это времени.
Время, которое затратят на это нейросети, не так важно, главное - способна ли нейросеть решить эту задачу в принципе. А затем смотрим, задачи какого размера (по затраченному человеком времени) в среднем способны решать нейросети.
Если усреднить все задачи, то получается четкий тренд: размер задач, которые могут решать нейросети, удваивается каждые 7 месяцев, что примерно 3.28 раза в год. Это же справедливо и для кода: размер проектов, в которых хорошо ориентируются нейросети, растет такими же темпами.
Если сейчас нейросети могут стабильно вносить значительные изменения или даже переписывать проекты или части кода, которые писались пару дней, то через 2 года это будут уже проекты на 3 недели, а еще через 2 года - проекты на год. При этом, изменения, вносимые в код за 1 запрос через 2 года смогут превышать день работы. А еще через 2 года - 2 недели за 1 запрос.
Может ли это все в ближайшее время остановиться? Вряд ли. Как минимум, этот тренд резко не оборвется, сначала должно начаться снижение, а его пока не видно. И даже наоборот - в этом году нейросети показывают удвоение не каждые 7 месяцев, а каждые 4 месяца. То есть задачи, которые они могут выполнить, увеличиваются в 8 раз в год. Пока не понятно, является ли это случайным отклонением, или же возможности нейросетей растут с дополнительным ускорением.
Сначала я скептически относился к ускорению, но сейчас оно выглядит все более и более вероятным. Кажется, gpt-5 еще раз это подтвердит. Если ускорение действительно есть, то через год нейросети смогут выполнять большую часть задач, которые люди выполняют за компьютером, а один запрос сможет вносить в код стабильные изменения, на которые у человека ушел бы день (а скорее всего гораздо больше). Если же ускорения нет, то все это все равно будет, но не через год, а через 2, и замедлиться развитие нейросетей за это время вряд ли успеет
Как определить темпы развития ИИ-моделей? Самый интересный вариант, что я видел, выглядит так: берем самые разные задачи, которые человек выполняет за компьютером, и смотрим, сколько в среднем у него уходит на это времени.
Время, которое затратят на это нейросети, не так важно, главное - способна ли нейросеть решить эту задачу в принципе. А затем смотрим, задачи какого размера (по затраченному человеком времени) в среднем способны решать нейросети.
Если усреднить все задачи, то получается четкий тренд: размер задач, которые могут решать нейросети, удваивается каждые 7 месяцев, что примерно 3.28 раза в год. Это же справедливо и для кода: размер проектов, в которых хорошо ориентируются нейросети, растет такими же темпами.
Если сейчас нейросети могут стабильно вносить значительные изменения или даже переписывать проекты или части кода, которые писались пару дней, то через 2 года это будут уже проекты на 3 недели, а еще через 2 года - проекты на год. При этом, изменения, вносимые в код за 1 запрос через 2 года смогут превышать день работы. А еще через 2 года - 2 недели за 1 запрос.
Может ли это все в ближайшее время остановиться? Вряд ли. Как минимум, этот тренд резко не оборвется, сначала должно начаться снижение, а его пока не видно. И даже наоборот - в этом году нейросети показывают удвоение не каждые 7 месяцев, а каждые 4 месяца. То есть задачи, которые они могут выполнить, увеличиваются в 8 раз в год. Пока не понятно, является ли это случайным отклонением, или же возможности нейросетей растут с дополнительным ускорением.
Сначала я скептически относился к ускорению, но сейчас оно выглядит все более и более вероятным. Кажется, gpt-5 еще раз это подтвердит. Если ускорение действительно есть, то через год нейросети смогут выполнять большую часть задач, которые люди выполняют за компьютером, а один запрос сможет вносить в код стабильные изменения, на которые у человека ушел бы день (а скорее всего гораздо больше). Если же ускорения нет, то все это все равно будет, но не через год, а через 2, и замедлиться развитие нейросетей за это время вряд ли успеет
🔥172👾34🤔21🤯14❤13🥰11🤮6🥱3🍾3🆒3🙊3