Forwarded from Российское общество «Знание»
This media is not supported in your browser
VIEW IN TELEGRAM
Панельная дискуссия «Создать и обучить. Атлас профессий в сфере ИИ»
Не пропустите выступление Сергея Нестерука, эксперта по исследованию данных SberAI, и Алексея Ковалёва, кандидата компьютерных наук, научного сотрудника Института искусственного интеллекта AIRI, сотрудника Центра когнитивного моделирования МФТИ, которое пройдет на Просветительском лектории Российского общества «Знание» на марафоне старта нового сезона конкурса «Большая перемена»!
Приятного просмотра!
Не пропустите выступление Сергея Нестерука, эксперта по исследованию данных SberAI, и Алексея Ковалёва, кандидата компьютерных наук, научного сотрудника Института искусственного интеллекта AIRI, сотрудника Центра когнитивного моделирования МФТИ, которое пройдет на Просветительском лектории Российского общества «Знание» на марафоне старта нового сезона конкурса «Большая перемена»!
Приятного просмотра!
😁3👍1💩1
Forwarded from Kali Novskaya (Tatiana Shavrina)
#nlp #про_nlp
🌸Открытое письмо о приостановке обучения сильных ИИ-систем🦾🌸
— Прогресс неостановим
— Работать все равно ничего не будет
Не так видят себе будущее в вопросах AI Alignment люди, подписавшие открытое письмо Future of Life Institute.
В открытом письме, под которым уже подписались Йошуа Бенжио, Стив Возняк, Стюарт Рассел, Юваль Ной Харари, задаются такие вопросы как
🔹Должны ли мы позволить машинам наводнять наши информационные каналы?
🔹Должны ли мы автоматизировать все рабочие места,?
🔹Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устареть или заменить нас?
🔹Должны ли мы рисковать потерей контроля над нашей цивилизацией?
Предлагается на 6 месяцев заморозить все большие разработки в области сильного ИИ (сравнимые и более сильные чем GPT-4) , чтобы во время этой паузы объединить усилия ведущих лабораторий и регуляторных центров на пути к доказуемо безопасному ИИ.
Что думаете?
🌸Прочитать/подписать письмо:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
🌸Открытое письмо о приостановке обучения сильных ИИ-систем🦾🌸
— Прогресс неостановим
— Работать все равно ничего не будет
Не так видят себе будущее в вопросах AI Alignment люди, подписавшие открытое письмо Future of Life Institute.
В открытом письме, под которым уже подписались Йошуа Бенжио, Стив Возняк, Стюарт Рассел, Юваль Ной Харари, задаются такие вопросы как
🔹Должны ли мы позволить машинам наводнять наши информационные каналы?
🔹Должны ли мы автоматизировать все рабочие места,?
🔹Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устареть или заменить нас?
🔹Должны ли мы рисковать потерей контроля над нашей цивилизацией?
Предлагается на 6 месяцев заморозить все большие разработки в области сильного ИИ (сравнимые и более сильные чем GPT-4) , чтобы во время этой паузы объединить усилия ведущих лабораторий и регуляторных центров на пути к доказуемо безопасному ИИ.
Что думаете?
🌸Прочитать/подписать письмо:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Future of Life Institute
Pause Giant AI Experiments: An Open Letter - Future of Life Institute
We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
🔥2
🎉Во всех Телеграмах страны!🎉
Сбер выпустил обновленную версию модели для генерации картинок по тексту — Kandinsky 2.1 🚀
Качество существенно подросло и теперь можно смешивать картинки!
За подробностями на Хабр, за экспериментами в Бот
Сбер выпустил обновленную версию модели для генерации картинок по тексту — Kandinsky 2.1 🚀
Качество существенно подросло и теперь можно смешивать картинки!
За подробностями на Хабр, за экспериментами в Бот
Хабр
Kandinsky 2.1, или Когда +0,1 значит очень много
В ноябре 2022 года мы выпустили свою первую диффузионную модель для синтеза изображений по текстовым описаниям Kandinsky 2.0 , которая собрала как позитивные, так и отрицательные отклики. Её ключевой...
👍3