Неоднократно писал и говорил, что у России есть что привнести в мировое развитие ИИ: от технологий до философских концепций.
Мы сильно продвинулись в этическом регулировании, т.е. добровольном установлении принципов разработки и внедрения ИИ. В 2021 году ряд ключевых российский компаний разработали и подписали российский Кодекс этики в сфере ИИ.
Отсутствие жесткого регулирования позволяет как дать свободу ИИ-компаниям, так и обеспечивает доверие со стороны пользователя. Да и выгодно выделяет российскую ИИ-отрасль, которая одна из первых в мире начала думать о самостоятельном создании правил игры на зарождающемся рынке.
Помимо всего этого, этика ИИ это и про рассуждения: к примеру, может ли ИИ иметь авторские права, нести ответственность за свои действия или же это все дело разработчика, а может пользователя.
Чтобы обсудить все эти вопросы и нащупать новые актуальные темы, мой Центр уже второй раз организует Форум этики ИИ. Я тоже принимаю участие в организации.
Ниже будет подробный пост про мероприятие. Всех призываю как зарегистрироваться на Форум, так и подписаться на канал Тест Тьюринга, в нем иногда выходят материалы, которые я готовлю с коллегами
Мы сильно продвинулись в этическом регулировании, т.е. добровольном установлении принципов разработки и внедрения ИИ. В 2021 году ряд ключевых российский компаний разработали и подписали российский Кодекс этики в сфере ИИ.
Отсутствие жесткого регулирования позволяет как дать свободу ИИ-компаниям, так и обеспечивает доверие со стороны пользователя. Да и выгодно выделяет российскую ИИ-отрасль, которая одна из первых в мире начала думать о самостоятельном создании правил игры на зарождающемся рынке.
Помимо всего этого, этика ИИ это и про рассуждения: к примеру, может ли ИИ иметь авторские права, нести ответственность за свои действия или же это все дело разработчика, а может пользователя.
Чтобы обсудить все эти вопросы и нащупать новые актуальные темы, мой Центр уже второй раз организует Форум этики ИИ. Я тоже принимаю участие в организации.
Ниже будет подробный пост про мероприятие. Всех призываю как зарегистрироваться на Форум, так и подписаться на канал Тест Тьюринга, в нем иногда выходят материалы, которые я готовлю с коллегами
❤2
Forwarded from Тест Тьюринга
This media is not supported in your browser
VIEW IN TELEGRAM
#Мероприятие #ФорумЭтикиИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Часто в ИИ видят инструмент, который позволит решить глобальный проблемы: голод, бедность или экологический кризис. Но есть ощущение, что как минимум одну проблему ИИ, наоборот, обострит - речь идет про изменение климата.
За общим очарование всесильности ChatGPT можно забыть, что работа мощных серверов требует большого количества ресурсов, в том числе воды и электричества (а ведь вода, как и энергия это дефицитный ресурс во многих точках земли).
Аналитики Gartner считают, что к 2030 году на обучение ИИ и хранение данных может приходиться 3,5% всего мирового потребления электроэнергии. При этом, потребление электричества растет в геометрической прогрессии год к году, а это в свою очередь ведет к прямому разогреву температуры Земли.
Исследователи из Калифорнийского университета в Беркли и Google обнаружили, что для обучения GPT-3 потребовалось 1287 мегаватт-часов электроэнергии, чего достаточно для снабжения средней семьи в США в течение примерно 120 лет.
Между тем миллионы ежедневных запросов к нейронке соответствует примерно 4000–6000 мегаватт-часам электроэнергии каждый день. Естественно, с ростом числа пользователей этот параметр тоже увеличивается. И это цифры лишь по одной нейросети, пусть и самой известной. Помимо этого некоторые исследователи говорят, что каждое обновление модели делает её еще более прожорливой.
Но отметим и позитивные моменты использования ИИ для решения проблем, связанных с изменением климата. ИИ показал себя мощным инструментом, помогающим сократить выбросы парниковых газов и повысить энергоэффективность — от оптимизации электросетей и создания «умных» зданий до совершенствования транспортных систем и содействия точному земледелию.
Теперь можно понять, для чего разработчики ИИ на своих презентациях сразу после слов об эффективности моделей сразу переходят на параметры их энергозатратности и высокий потенциал для решения глобальных проблем
За общим очарование всесильности ChatGPT можно забыть, что работа мощных серверов требует большого количества ресурсов, в том числе воды и электричества (а ведь вода, как и энергия это дефицитный ресурс во многих точках земли).
Аналитики Gartner считают, что к 2030 году на обучение ИИ и хранение данных может приходиться 3,5% всего мирового потребления электроэнергии. При этом, потребление электричества растет в геометрической прогрессии год к году, а это в свою очередь ведет к прямому разогреву температуры Земли.
Исследователи из Калифорнийского университета в Беркли и Google обнаружили, что для обучения GPT-3 потребовалось 1287 мегаватт-часов электроэнергии, чего достаточно для снабжения средней семьи в США в течение примерно 120 лет.
Между тем миллионы ежедневных запросов к нейронке соответствует примерно 4000–6000 мегаватт-часам электроэнергии каждый день. Естественно, с ростом числа пользователей этот параметр тоже увеличивается. И это цифры лишь по одной нейросети, пусть и самой известной. Помимо этого некоторые исследователи говорят, что каждое обновление модели делает её еще более прожорливой.
Но отметим и позитивные моменты использования ИИ для решения проблем, связанных с изменением климата. ИИ показал себя мощным инструментом, помогающим сократить выбросы парниковых газов и повысить энергоэффективность — от оптимизации электросетей и создания «умных» зданий до совершенствования транспортных систем и содействия точному земледелию.
Теперь можно понять, для чего разработчики ИИ на своих презентациях сразу после слов об эффективности моделей сразу переходят на параметры их энергозатратности и высокий потенциал для решения глобальных проблем
👍2❤1
Вместе с коллегой опубликовали текст про развитие ИИ. Внутри интересные аналогии про необходимость появления международного арбитра на ИИ-поле, а также общепризнанных правил игры, чтобы избежать появления конкурирующих лиг (политической конкуренции)
https://www.forbes.ru/mneniya/500498-organizacia-iskusstvennogo-intellekta-zdet-li-ii-sistema-global-nogo-regulirovania
https://www.forbes.ru/mneniya/500498-organizacia-iskusstvennogo-intellekta-zdet-li-ii-sistema-global-nogo-regulirovania
Forbes.ru
Организация искусственного интеллекта: ждет ли ИИ система глобального регулирования
Генеральный секретарь ООН Антониу Гутерриш объявил о создании Консультативного органа высокого уровня по искусственному интеллекту, который будет руководить глобальным управлением ИИ. Фактически генсек ООН поддержал создателя ChatGPT Сэма Альтмана, п
🔥4👍2❤1
#aiworld
В мировом ИИ-сообществе новостью номер один в эти выходные стало увольнение Сэма Альтмана, руководителя OpenAI, разработчика того самого ChatGPT.
Сразу появилось множество теорий, почему все это произошло.
1. Выходец из Нижнего Новгорода Илья Илья Суцкевер убрал конкурента из руководства компании.
2. У Альтмана возник конфликт интересов из-за его сторонних проектов, которые потенциально могли конкурировать с OpenAI
3. Совету директоров компании не понравилось стремление Альтмана максимально заработать на разработках компании, что вступает в противоречие с названием и начальной целью компании по распространению открытого ПО. В объяснение тут приводят гипотезу, что компания достигла сильного ИИ (т.е. ИИ достиг революционного превосходства над человеком), а Альтман был готов максимально быстро выпустить эту модель без должных просчетов рисков со стороны компании и без ожидания появления необходимого регулирования на уровне государств.
Но не столь важно какая версия верна. Интереснее то внимание, с которым мир наблюдал за переворотом в правлении компании. Начиная с 2022 года (с момента хайпа нейронок) ИИ-разработчики обрели статус творцов будущего. Именно они на своих, часто скучных, презентациях рассказывают, как изменится наша жизнь уже в ближайшее время. А OpenAI и Альтман стали символами этих перемен.
Интересно и то, что крупные компании понимают всю важность ИИ. Майкрософт, ключевой акционер компании, буквально за выходные создал под Альтмана новое структурное подразделение, чтобы тот не согласился на мгновенно возникшие предложения о работе от Амазон, Гугл и др. Все это привело к тому, что за сегодня акции Майкрософт достигли нового исторического максимума, а капитализация наконец-то достигла размера давнего соперника - Apple.
Это произошло потому, что ИИ не только про будущее, но и про огромную прибыль. Не зря в описании этого канала написано: ИИ - новая нефть
В мировом ИИ-сообществе новостью номер один в эти выходные стало увольнение Сэма Альтмана, руководителя OpenAI, разработчика того самого ChatGPT.
Сразу появилось множество теорий, почему все это произошло.
1. Выходец из Нижнего Новгорода Илья Илья Суцкевер убрал конкурента из руководства компании.
2. У Альтмана возник конфликт интересов из-за его сторонних проектов, которые потенциально могли конкурировать с OpenAI
3. Совету директоров компании не понравилось стремление Альтмана максимально заработать на разработках компании, что вступает в противоречие с названием и начальной целью компании по распространению открытого ПО. В объяснение тут приводят гипотезу, что компания достигла сильного ИИ (т.е. ИИ достиг революционного превосходства над человеком), а Альтман был готов максимально быстро выпустить эту модель без должных просчетов рисков со стороны компании и без ожидания появления необходимого регулирования на уровне государств.
Но не столь важно какая версия верна. Интереснее то внимание, с которым мир наблюдал за переворотом в правлении компании. Начиная с 2022 года (с момента хайпа нейронок) ИИ-разработчики обрели статус творцов будущего. Именно они на своих, часто скучных, презентациях рассказывают, как изменится наша жизнь уже в ближайшее время. А OpenAI и Альтман стали символами этих перемен.
Интересно и то, что крупные компании понимают всю важность ИИ. Майкрософт, ключевой акционер компании, буквально за выходные создал под Альтмана новое структурное подразделение, чтобы тот не согласился на мгновенно возникшие предложения о работе от Амазон, Гугл и др. Все это привело к тому, что за сегодня акции Майкрософт достигли нового исторического максимума, а капитализация наконец-то достигла размера давнего соперника - Apple.
Это произошло потому, что ИИ не только про будущее, но и про огромную прибыль. Не зря в описании этого канала написано: ИИ - новая нефть
🔥4
Последние пару лет доказали, что ИИ способен решать различные задачи, выступая крайне полезным инструментом для человека. В России стала популярной история, как студент написал диплом, используя ChatGPT.
Большое количество людей задают вопросы нейронкам, полностью доверяя её ответам, ведь машина не может врать. Однако они ошибаются и иногда откровенно выдумывают различные сведения. В ИИ среде это называется галлюцинациями ИИ, по аналогии с галлюцинациями у человека, который может быть уверен, что с ним действительно произошло то или иное событие. Термин ввели исследователи Google в 2018 году.
Причиной подобных галлюцинаций является накопление цифрового шума (изначально неверно или ошибочно распознанных данных), возникающий в процессе обучения нейросети и нарушающий логику работы нейросети. Чем больше данных прошло, тем нейронка эрудированней, но и при этом растет вероятность накопления ошибок. Как показали исследования, после каждого выпуска новой модели ChatGPT происходит постепенное снижение качества ответов. Именно из-за накопленного шума в виде запросов пользователей.
Есть множество вариантов решения проблемы:
- обучать ИИ на предварительно подготовленных текстах, специально написанных простым и понятным языком
- сделать обязательным уведомление пользователя о возможном искажении ответа, в ситуации, когда ИИ основывает свой ответ на недостаточно точных данных
- включить обратную связь, чтобы сами пользователи дообучали модель, как это реализовано в переводчиках (пользователь может указать более точный перевод)
- встроить в ИИ алгоритм проверки запроса через иной источник. Условно говоря, запрос будет обработан ИИ, а второй будет использовать поисковую систему Гугл. В случае больших расхождений в ответе об этом будет сообщаться пользователю
Однако, сам факт подобных галлюцинаций лишний раз показывает, насколько текущий уровень развития ИИ далек от образа разумной машины из научной фантастики, обредшей что-то человеческое.
Напомню, картинки к постам создаются нейронками. Текущий запрос: Ошибки ИИ
#aihow
Большое количество людей задают вопросы нейронкам, полностью доверяя её ответам, ведь машина не может врать. Однако они ошибаются и иногда откровенно выдумывают различные сведения. В ИИ среде это называется галлюцинациями ИИ, по аналогии с галлюцинациями у человека, который может быть уверен, что с ним действительно произошло то или иное событие. Термин ввели исследователи Google в 2018 году.
Причиной подобных галлюцинаций является накопление цифрового шума (изначально неверно или ошибочно распознанных данных), возникающий в процессе обучения нейросети и нарушающий логику работы нейросети. Чем больше данных прошло, тем нейронка эрудированней, но и при этом растет вероятность накопления ошибок. Как показали исследования, после каждого выпуска новой модели ChatGPT происходит постепенное снижение качества ответов. Именно из-за накопленного шума в виде запросов пользователей.
Есть множество вариантов решения проблемы:
- обучать ИИ на предварительно подготовленных текстах, специально написанных простым и понятным языком
- сделать обязательным уведомление пользователя о возможном искажении ответа, в ситуации, когда ИИ основывает свой ответ на недостаточно точных данных
- включить обратную связь, чтобы сами пользователи дообучали модель, как это реализовано в переводчиках (пользователь может указать более точный перевод)
- встроить в ИИ алгоритм проверки запроса через иной источник. Условно говоря, запрос будет обработан ИИ, а второй будет использовать поисковую систему Гугл. В случае больших расхождений в ответе об этом будет сообщаться пользователю
Однако, сам факт подобных галлюцинаций лишний раз показывает, насколько текущий уровень развития ИИ далек от образа разумной машины из научной фантастики, обредшей что-то человеческое.
Напомню, картинки к постам создаются нейронками. Текущий запрос: Ошибки ИИ
#aihow
🔥3👍1
#aihow
В выходной хочу посоветовать ролик, в котором достаточно подробно описаны механизмы работы ИИ и ключевые возможности, которые нам доступны.
Ролик идет 50 минут и если вы сомневаетесь, готовы ли тратить на него своё время, можно применить специальное ИИ-решение, которое кратко перескажет основное содержание ролика.
Наиболее простой вариант для жителей России - это опция "Краткий пересказ", которая доступна каждому в Яндекс-браузере. По этой ссылке вы можете увидеть, что искусственному разуму получилось увидеть в обсуждаемом нами ролике.
Вообще, подобная категория ИИ получила название Summarizer. Такие "обобщатели" способны не только делать выжимки из видео, но и аудио, текста. Одна из самых интересных опций, которую предлагают некоторые ИИ - возможность загрузить в нейронку все свои файлы и провести обучение на них. В итоге вы получите помощника, который сможет оперировать всеми вашими знаниями. Не надо искать среди тонны файлов нужный факт, статистику, или подготовить презентацию - достаточно попросить ИИ. По этой ссылке пример, как это работает.
Если интересно, можете присмотреть себе что-то на сайтах, которые собирают нейронки по категориям. К примеру такой
В выходной хочу посоветовать ролик, в котором достаточно подробно описаны механизмы работы ИИ и ключевые возможности, которые нам доступны.
Ролик идет 50 минут и если вы сомневаетесь, готовы ли тратить на него своё время, можно применить специальное ИИ-решение, которое кратко перескажет основное содержание ролика.
Наиболее простой вариант для жителей России - это опция "Краткий пересказ", которая доступна каждому в Яндекс-браузере. По этой ссылке вы можете увидеть, что искусственному разуму получилось увидеть в обсуждаемом нами ролике.
Вообще, подобная категория ИИ получила название Summarizer. Такие "обобщатели" способны не только делать выжимки из видео, но и аудио, текста. Одна из самых интересных опций, которую предлагают некоторые ИИ - возможность загрузить в нейронку все свои файлы и провести обучение на них. В итоге вы получите помощника, который сможет оперировать всеми вашими знаниями. Не надо искать среди тонны файлов нужный факт, статистику, или подготовить презентацию - достаточно попросить ИИ. По этой ссылке пример, как это работает.
Если интересно, можете присмотреть себе что-то на сайтах, которые собирают нейронки по категориям. К примеру такой
YouTube
Эволюция нейросетей от Т9 до ChatGPT / Редакция.Наука
Как нейросети учатся и «думают»? Что общего у ChatGPT и ностальгической системы T9 из кнопочных мобильных телефонов? Можно ли назвать работы нейросетей творчеством? Почему искусственный интеллект страдает галлюцинациями и амнезией — а порой ведет себя как…
👍2
Ранее писал, что ИИ активно интегрируется в военное дело и мы находимся на пути к роботизированным войнам. Приведу пример США.
В феврале 2022 года министерство обороны создало новую должность: директора по ИИ и цифровым технологиям, который курирует такие подразделения, как объединённый центр ИИ, службу цифровой защиты, а также вопросы безопасности данных.
В июне этого года Пентагон пошел дальше и опубликовал план внедрения «принципов ответственного использования ИИ-технологий» в военном деле. Эта доктринальная подготовка была нужна, чтобы подготовиться к широкому применению так называемых «роботов-убийц». Согласно официальным сообщениям, Пентагон работает над развертыванием тысяч дронов с искусственным интеллектом.
В своей речи заместитель министра обороны США Кэтлин Хикс заявила, что такие технологии, как рои дронов, управляемых искусственным интеллектом, позволят США компенсировать численное преимущество армии Китая в оружии и людях.
Несколько правительств лоббируют в ООН принятие обязательной резолюции, ограничивающей использование дронов-убийц с искусственным интеллектом, но США входят в группу стран, в которую также входят Россия, Австралия и Израиль, которые предпочитают необязывающую резолюцию.
Отмечу, что вопрос об «этичности» самой идеи использования ИИ в системах вооружений и военной техники не ставится как фактически решённый. Речь идёт о степени самостоятельности военных ИИ-систем в принятии решений о применении оружия. Уже близка к реальности ситуация, когда сам ИИ начнет принимать автономные решения о том, стоит ли убивать человеческие цели.
Стоит добавить, что летальное автономное оружие, способное выбирать цели с помощью искусственного интеллекта, разрабатывается в таких странах, как США, Китай и Израиль. И очевидно, что число разработок увеличивается от года к году. Спрос то растет.
В феврале 2022 года министерство обороны создало новую должность: директора по ИИ и цифровым технологиям, который курирует такие подразделения, как объединённый центр ИИ, службу цифровой защиты, а также вопросы безопасности данных.
В июне этого года Пентагон пошел дальше и опубликовал план внедрения «принципов ответственного использования ИИ-технологий» в военном деле. Эта доктринальная подготовка была нужна, чтобы подготовиться к широкому применению так называемых «роботов-убийц». Согласно официальным сообщениям, Пентагон работает над развертыванием тысяч дронов с искусственным интеллектом.
В своей речи заместитель министра обороны США Кэтлин Хикс заявила, что такие технологии, как рои дронов, управляемых искусственным интеллектом, позволят США компенсировать численное преимущество армии Китая в оружии и людях.
Несколько правительств лоббируют в ООН принятие обязательной резолюции, ограничивающей использование дронов-убийц с искусственным интеллектом, но США входят в группу стран, в которую также входят Россия, Австралия и Израиль, которые предпочитают необязывающую резолюцию.
Отмечу, что вопрос об «этичности» самой идеи использования ИИ в системах вооружений и военной техники не ставится как фактически решённый. Речь идёт о степени самостоятельности военных ИИ-систем в принятии решений о применении оружия. Уже близка к реальности ситуация, когда сам ИИ начнет принимать автономные решения о том, стоит ли убивать человеческие цели.
Стоит добавить, что летальное автономное оружие, способное выбирать цели с помощью искусственного интеллекта, разрабатывается в таких странах, как США, Китай и Израиль. И очевидно, что число разработок увеличивается от года к году. Спрос то растет.
👍2😱1
Глобальные технологические корпорации и не думают останавливаться в гонке за ИИ.
Вчера вышел анонс новой большой языковой модели, которую предложил всему миру теперь Google. И похоже известный многим ChatGPT уже скоро может быть потеснен с лидерских позиций. Как говорят разработчики, их нейронка, названная Gemini, превосходит GPT в 57 областях знаний, включая математику и физику.
Gemini свободно программирует на Python, Java, C++ и Go и уже показала, как создает сайты, которые динамически кодируют себя сами в процессе использования, если возникает необходимость в новых функциях. Разработчики обещают в обновлениях добавить в модель возможность осязание и тактильную обратную связь.
Мы всё ближе к тому моменту, когда нейронка станет комплексным продуктом, который будет изначально содержать в себе все необходимые пользователю функции, без нужды искать под каждую функцию отдельную нейронку (как это есть сейчас).
На фоне всего этого акции Google выросли на 7%, показав самый большой дневной рост компании почти за два лет торгов. Упали акции конкурента Microsoft. Ранее писал, что они также бодро росли, когда вышла новость про переход создателя ChatGPT на работу в Майкрософт.
Что примечательно, ни ChatGPT, ни новую Gemini не создали сами техногиганты,хотя основные коммерческие преимущества получили в итоге они. ChatGPT разработали в OpenAI, а Gemini в DeepMind.
Обе эти компании изначально были конкурентами и соревновались за внимание инвестора, а это было важно, ведь компании были убыточными ровно до нового хайпа ИИ, который начался в прошлом году. ИИ-создатели успели сменить ни одного ключевого инвестора и владельца и сталкивались с угрозой банкротства.
Как интересно устроен мир - сначала ИИ-разработчики соревновались за внимание IT-корпораций, а теперь уже техногиганты охотятся за их мозгами.
Вчера вышел анонс новой большой языковой модели, которую предложил всему миру теперь Google. И похоже известный многим ChatGPT уже скоро может быть потеснен с лидерских позиций. Как говорят разработчики, их нейронка, названная Gemini, превосходит GPT в 57 областях знаний, включая математику и физику.
Gemini свободно программирует на Python, Java, C++ и Go и уже показала, как создает сайты, которые динамически кодируют себя сами в процессе использования, если возникает необходимость в новых функциях. Разработчики обещают в обновлениях добавить в модель возможность осязание и тактильную обратную связь.
Мы всё ближе к тому моменту, когда нейронка станет комплексным продуктом, который будет изначально содержать в себе все необходимые пользователю функции, без нужды искать под каждую функцию отдельную нейронку (как это есть сейчас).
На фоне всего этого акции Google выросли на 7%, показав самый большой дневной рост компании почти за два лет торгов. Упали акции конкурента Microsoft. Ранее писал, что они также бодро росли, когда вышла новость про переход создателя ChatGPT на работу в Майкрософт.
Что примечательно, ни ChatGPT, ни новую Gemini не создали сами техногиганты,хотя основные коммерческие преимущества получили в итоге они. ChatGPT разработали в OpenAI, а Gemini в DeepMind.
Обе эти компании изначально были конкурентами и соревновались за внимание инвестора, а это было важно, ведь компании были убыточными ровно до нового хайпа ИИ, который начался в прошлом году. ИИ-создатели успели сменить ни одного ключевого инвестора и владельца и сталкивались с угрозой банкротства.
Как интересно устроен мир - сначала ИИ-разработчики соревновались за внимание IT-корпораций, а теперь уже техногиганты охотятся за их мозгами.
👍1
Forwarded from ИМИ МГИМО
🇨🇳 Китайская стратегия «больших данных»: реформа управления, инновации и глобальная конкуренция — доклад Игоря Денисова:
• В Китае появилось первое в мире правительственное ведомство, которое будет определять национальную политику в области данных. В КНР стремятся придать развитию искусственного интеллекта (ИИ) общегосударственный, системный и стратегический характер.
• Ключевая идея, лежащая в основе изменений китайской стратегии использования данных, — концепция «данных как фактора производства». Власти КНР рассматривают данные как универсальный «двоякий ресурс», имеющий решающее значение как для политики, так и для экономики.
• Столкнувшись с турбулентностью международной обстановки и новыми рисками в связи с обострением отношений с Вашингтоном, Пекин уделяет особое внимание соблюдению баланса между развитием и безопасностью. Правительство Китая прилагает усилия для разработки комплексных мер по обеспечению безопасности инфраструктуры данных: эту политику можно назвать суверенизацией данных.
• Поставленная китайским руководством задача «запуска» общекитайского рынка данных по-настоящему амбициозна и может потребовать огромных усилий в рамках всей страны, так как упирается в ряд проблемных обстоятельств.
• Можно выделить пять сопутствующих проблемных вопросов: (1) адаптация традиционной аппаратной архитектуры для удовлетворения многократно возрастающих интенсивных вычислительных требований; (2) «стыковка» разнородных баз данных; (3) чёткая регламентация сбора и использования данных; (4) изменения в подходах к управлению; (5) обеспечение цифровых отраслей кадрами, заблаговременное принятие мер в связи с «вымыванием» с рынка ряда профессий на фоне прогресса ИИ.
• Китай стремится использовать данные как мощный инструмент для развития инноваций и стимулирования экономического роста. Вторая часть баланса — развитие, политическим лозунгом которого выступает идея Си Цзиньпина о великом возрождении китайской нации.
Ознакомиться с докладом по ссылке.
• В Китае появилось первое в мире правительственное ведомство, которое будет определять национальную политику в области данных. В КНР стремятся придать развитию искусственного интеллекта (ИИ) общегосударственный, системный и стратегический характер.
• Ключевая идея, лежащая в основе изменений китайской стратегии использования данных, — концепция «данных как фактора производства». Власти КНР рассматривают данные как универсальный «двоякий ресурс», имеющий решающее значение как для политики, так и для экономики.
• Столкнувшись с турбулентностью международной обстановки и новыми рисками в связи с обострением отношений с Вашингтоном, Пекин уделяет особое внимание соблюдению баланса между развитием и безопасностью. Правительство Китая прилагает усилия для разработки комплексных мер по обеспечению безопасности инфраструктуры данных: эту политику можно назвать суверенизацией данных.
• Поставленная китайским руководством задача «запуска» общекитайского рынка данных по-настоящему амбициозна и может потребовать огромных усилий в рамках всей страны, так как упирается в ряд проблемных обстоятельств.
• Можно выделить пять сопутствующих проблемных вопросов: (1) адаптация традиционной аппаратной архитектуры для удовлетворения многократно возрастающих интенсивных вычислительных требований; (2) «стыковка» разнородных баз данных; (3) чёткая регламентация сбора и использования данных; (4) изменения в подходах к управлению; (5) обеспечение цифровых отраслей кадрами, заблаговременное принятие мер в связи с «вымыванием» с рынка ряда профессий на фоне прогресса ИИ.
• Китай стремится использовать данные как мощный инструмент для развития инноваций и стимулирования экономического роста. Вторая часть баланса — развитие, политическим лозунгом которого выступает идея Си Цзиньпина о великом возрождении китайской нации.
Ознакомиться с докладом по ссылке.
👍3🤔1
ПолитИИзация
В этом году для студентов-международников в Иркутске буду вести курс по ИИ в мировой политике. Для меня эксперимент в чистом виде, а для России почти уникальный курс. Разве что Павел Шариков ведёт что-то такое в МГУ https://lk.msu.ru/course/view?id=2378 (повезло…
Пришла пора напомнить про мой призыв к вам задавать темы, которые можно раскрыть в постах и в лекциях студентам.
Что примечательно: прошло менее полугода с этого поста, а в университетах России уже ведутся курсы, где ИИ рассматривается в политическом контексте. И я не перестаю утверждать, что это не хайп, как часто говорят мне собеседники на различных политологических площадках. Мы на пороге перемен, сравнимых с появление ядерной боеголовки.
Возможно, примерно тоже самое ощущали владельцы первых машин, скорость которых на тот момент уступала повозкам. Итог их соревнования всем известен.
Что примечательно: прошло менее полугода с этого поста, а в университетах России уже ведутся курсы, где ИИ рассматривается в политическом контексте. И я не перестаю утверждать, что это не хайп, как часто говорят мне собеседники на различных политологических площадках. Мы на пороге перемен, сравнимых с появление ядерной боеголовки.
Возможно, примерно тоже самое ощущали владельцы первых машин, скорость которых на тот момент уступала повозкам. Итог их соревнования всем известен.
🔥2👍1
На сегодняшней конференции Путина внимание досталось и тематике ИИ.
Встретился вопрос, который весьма характерен в деле внедрения ИИ (см.картинку к посту)
Из посыла явно видно, что ИИ вызывает непростые чувства - от непонимание принципов работы до его отрицания как такового. Это подтверждается опросами населения страны. Треть населения не понимают, как он работает (31% опрошенных), а 5% считают, что развитие искусственного интеллекта приводит к деградации человека.
Другой опрос показывает, что в большинстве своем россияне придерживаются мнения, что ИИ следует использовать только в некоторых сферах (67%), тогда как каждый девятый вовсе не видит в нем нужды («не должен использоваться вообще» — 11%). Лишь 18% не против повсеместного использования ИИ.
Подобная настороженная позиция не является чем-то особенным. Международные наблюдения говорят, что одобрение ИИ куда выше в развивающихся странах, чем в развитых. Это объясняется тем что, что население в развитых странах заботят различные вопросы использования личных данных и иные правовые и моральные вопросы, в то время как для развивающихся обществ ИИ ассоциируется с экономическим ростом.
Парадоксально, но внедрение ИИ само по себе повышает степень недоверия к этой технологии. Так что подобные вопросы от населения лишь подтверждают возрастающее проникновение ИИ на всех уровнях жизни человека
Встретился вопрос, который весьма характерен в деле внедрения ИИ (см.картинку к посту)
Из посыла явно видно, что ИИ вызывает непростые чувства - от непонимание принципов работы до его отрицания как такового. Это подтверждается опросами населения страны. Треть населения не понимают, как он работает (31% опрошенных), а 5% считают, что развитие искусственного интеллекта приводит к деградации человека.
Другой опрос показывает, что в большинстве своем россияне придерживаются мнения, что ИИ следует использовать только в некоторых сферах (67%), тогда как каждый девятый вовсе не видит в нем нужды («не должен использоваться вообще» — 11%). Лишь 18% не против повсеместного использования ИИ.
Подобная настороженная позиция не является чем-то особенным. Международные наблюдения говорят, что одобрение ИИ куда выше в развивающихся странах, чем в развитых. Это объясняется тем что, что население в развитых странах заботят различные вопросы использования личных данных и иные правовые и моральные вопросы, в то время как для развивающихся обществ ИИ ассоциируется с экономическим ростом.
Парадоксально, но внедрение ИИ само по себе повышает степень недоверия к этой технологии. Так что подобные вопросы от населения лишь подтверждают возрастающее проникновение ИИ на всех уровнях жизни человека
🔥6👍1
Недавно писал статью про международные призывы начать регулировать ИИ. До этого речь шла про роль бизнеса и государств в этом процессе. Однако есть достаточно необычный участник этого процесса: Ватикан и лично Папа Римский.
Стоит просто сказать, что еще в 2020 году Ватикан опубликовал набор принципов, получивший название «Римский призыв к этике ИИ» , который на идейном уровне пропагандирует ответственное и этичное использование ИИ.
В 2023 году Ватикан и американский Университет Санта-Клары основали Институт технологий, этики и культуры ITEC, целью которого является исследование путей сосуществования и взаимодействия современных технологий и религии. Этот Центр уже выпустили отчёт под названием «Этика в эпоху прорывных технологий: дорожная карта». Отчёт призван помочь технологическим компаниям ориентироваться в этических аспектах ИИ в формате практического руководства.
Недавно Ватикан выпустил послание под названием «Искусственный интеллект и мир». В нём Папа Франциск призвал к глобальному регулированию ИИ ради «мира и общего блага». Из примечательного: Папа утверждает, что государство теперь имеет обязанность регулировать использование ИИ, но что примечательнее, в этом процессе ему должны помогать международные организации и институции с высоким авторитетом.
Есть ощущение, что такой авторитет как-раз расположен в Ватикане.
Пример активности Папы на поле технологического развития неуникален. Орден доминиканцев еще в 2012 году основал свой научный центр, который ищет божественное начало в глобальной сети. Все еще помню своё удивление, когда в 2017 году узнал про хакатоны, который проводил в Ватикане этот центр.
Может быть именно такой путь позволит религии стать логичной частью формирующегося техноцентричного мира.
Вновь напомню, картинки генерирует ИИ
Стоит просто сказать, что еще в 2020 году Ватикан опубликовал набор принципов, получивший название «Римский призыв к этике ИИ» , который на идейном уровне пропагандирует ответственное и этичное использование ИИ.
В 2023 году Ватикан и американский Университет Санта-Клары основали Институт технологий, этики и культуры ITEC, целью которого является исследование путей сосуществования и взаимодействия современных технологий и религии. Этот Центр уже выпустили отчёт под названием «Этика в эпоху прорывных технологий: дорожная карта». Отчёт призван помочь технологическим компаниям ориентироваться в этических аспектах ИИ в формате практического руководства.
Недавно Ватикан выпустил послание под названием «Искусственный интеллект и мир». В нём Папа Франциск призвал к глобальному регулированию ИИ ради «мира и общего блага». Из примечательного: Папа утверждает, что государство теперь имеет обязанность регулировать использование ИИ, но что примечательнее, в этом процессе ему должны помогать международные организации и институции с высоким авторитетом.
Есть ощущение, что такой авторитет как-раз расположен в Ватикане.
Пример активности Папы на поле технологического развития неуникален. Орден доминиканцев еще в 2012 году основал свой научный центр, который ищет божественное начало в глобальной сети. Все еще помню своё удивление, когда в 2017 году узнал про хакатоны, который проводил в Ватикане этот центр.
Может быть именно такой путь позволит религии стать логичной частью формирующегося техноцентричного мира.
Вновь напомню, картинки генерирует ИИ
❤3👍1🔥1
По предложению Фонда Горчакова (занимаются развитием международных связей и различными экспертными мероприятиями) написал короткое эссе о том, как ИИ может быть применен в дипломатии (мой текст на странице 27, текст постом ниже).
Моё убеждение, что в ближайшем будущем ИИ будет использоваться в качестве дополнительного инструмента, а не замены человека.
Специально спросил у нейронки, почему она не сможет быть дипломатом и вот эти ответы мне показались интересными:
1. ИИ плохо работает в неоднозначных ситуациях.
Дипломатические ситуации зачастую предполагают работу в условиях неопределенности, двусмысленности и неоднозначности, где требуются сложные человеческие суждения, которые трудно автоматизировать.
2. ИИ не обеспечивает главное в дипломатии - доверие и расположение собеседника, ведь часто именно человеческие отношения становятся ключевым факторов дипломатического процесса.
P.s.
Отмечу, второй текст на тему ИИ написал мой коллега по иркутскому университету Сергей Себекин. Совместными усилиями создадим сибирскую школу по изучению политического искусственного интеллекта.
Моё убеждение, что в ближайшем будущем ИИ будет использоваться в качестве дополнительного инструмента, а не замены человека.
Специально спросил у нейронки, почему она не сможет быть дипломатом и вот эти ответы мне показались интересными:
1. ИИ плохо работает в неоднозначных ситуациях.
Дипломатические ситуации зачастую предполагают работу в условиях неопределенности, двусмысленности и неоднозначности, где требуются сложные человеческие суждения, которые трудно автоматизировать.
2. ИИ не обеспечивает главное в дипломатии - доверие и расположение собеседника, ведь часто именно человеческие отношения становятся ключевым факторов дипломатического процесса.
P.s.
Отмечу, второй текст на тему ИИ написал мой коллега по иркутскому университету Сергей Себекин. Совместными усилиями создадим сибирскую школу по изучению политического искусственного интеллекта.
👍8❤1🔥1
Коллеги сделали интересный спецпроект про сингулярность: ситуацию, когда ИИ станет неотъемлемой частью нашей жизни и обычной рутиной.
Это очень красиво оформенное и, самое главное, интересно описанное будущее, которое уже рядом. Полюбопытствуйте
Это очень красиво оформенное и, самое главное, интересно описанное будущее, которое уже рядом. Полюбопытствуйте
🔥1🤣1
Forwarded from Тест Тьюринга
Искусственный интеллект стремительно развивается и охватывает все новые сферы жизни общества. Ученые даже ввели специальный термин «сингулярность ИИ» - явление, при котором технология превзойдет когнитивные способности людей и появится новый уровень интеллекта, недостижимый для людей.
Эксперты Национального центра развития ИИ при Правительстве в новом спецпроекте рассказали о том, какое политическое, экономическое, социальное и этическое влияние окажет на людей сингулярность ИИ, насколько управляемы современные технологии в эпоху GPT, а также заглянули за горизонт и показали, какие изменения ждут человечество с развитием ИИ по модели Курцвейла до конца 21 века.
Также эти вопросы поднимали российские эксперты на прошедшем «Форуме этики в сфере ИИ: Поколение GPT. Красные линИИ», материалы доступны по ссылке.
#спецпроект
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥1
#happyAI
С Наступающим, Друзья!
Этот канал был создан с желанием попытаться осмыслить, что будущее нам несет. Вот близится Новый Год и это будущее становится чуть ближе к нам.
Хотелось бы, чтобы технологии значили для нас надежду на хорошее будущее, ведь не сам Скайнет (ИИ из Терминатора) несёт нам угрозу, а противоречивая природа человека, которая балансирует между созиданием и уничтожением.
Удивительно, но даже максимально рациональный предмет технологического развития требует того, чего лишены разумные машины - веры в будущее, наперекор всему.
P.s.
Нейросеть сгенерировала несколько поздравительных открыток, но у меня так и не вышло выбрать какую-то одну. Поэтому публикую сразу все. Может и вам пригодится.
С Наступающим, Друзья!
Этот канал был создан с желанием попытаться осмыслить, что будущее нам несет. Вот близится Новый Год и это будущее становится чуть ближе к нам.
Хотелось бы, чтобы технологии значили для нас надежду на хорошее будущее, ведь не сам Скайнет (ИИ из Терминатора) несёт нам угрозу, а противоречивая природа человека, которая балансирует между созиданием и уничтожением.
Удивительно, но даже максимально рациональный предмет технологического развития требует того, чего лишены разумные машины - веры в будущее, наперекор всему.
P.s.
Нейросеть сгенерировала несколько поздравительных открыток, но у меня так и не вышло выбрать какую-то одну. Поэтому публикую сразу все. Может и вам пригодится.
❤1🔥1