FSCP
17.2K subscribers
30.6K photos
3.57K videos
863 files
78.1K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
Кажется, началось:

Reuters посмотрели письмо U.S. Copyright Office по защите прав книги "Zarya of the Dawn".

Бюро регистрации авторских прав сообщило, что оно переоформит регистрацию книжки, чтобы исключить изображения, которые «не являются продуктом человеческого авторства» ("are not the product of human authorship") и, следовательно, не могут быть защищены авторским правом.

Этот комментарий является одним из первых, принятых судом или агентством США в отношении объема защиты авторских прав на произведения, созданные с помощью ИИ.

> "The fact that Midjourney's specific output cannot be predicted by users makes Midjourney different for copyright purposes than other tools used by artists," the letter said.

UPD:
интересный вопрос от моего знакомого: "А если я руками нарисовал картинку, а потом нейросетевой фильтр сверху навернул, будет ли она защищена авторскими правами?".

Где проводить черту? А если я использовал программу для коррекции отдельных частей (скажем, один объект отредактировал)? А как а что а почему...
_______
Источник | #seeallochnaya

🔥 Бот для скачивания видео и музыки
🌔 Купи и заработай в StarCitizen
🤖 Бесплатно ChatGPT с AnnAi
⛵️MidJourney в Telegram
Обладают ли Большие Языковые Модели моделью мира? Ну, в переносном смысле не знаю, а в прямом — да! По крайней мере, так мне кажется после прочтения статьи "GPT4GEO: How a Language Model Sees the World's Geography", где авторы из University of Cambridge и еще пары мест попытались проанилизировать географические знания модели GPT-4.

С помощью промптов, заставляющих модель выдавать координаты, цифры или текстовые инструкции было сделано множество экспериментов, начиная отрисовкий линий метрополитена и заканчивая задачками на смены часовых поясов при перелетах. И всё это — без доступа к интернету!

Первый пример, собственно, мне и понравился больше всего — его вы можете видеть на прикрепленном изображении. Видно, что модель достаточно точно воссоздала метрополитен Гонконга: какие-то линии прорисованы до мельчайших деталей геометрии, а какие-то даже не учитывают все станции.

Основная причина, по которой я захотел поделиться этим, заключается в моем желании выразить простую идею, что сейчас для экспериментов с LLM не нужны гигансткие бюджеты, так как модели теринровать и не нужно: можно обойтись смекалкой, придерживаться клевой идеи, копать вглубь и придумывать, как почелленджить модель. Главное найти ответ на вопрос "а чо еще потыкать у модели?".
_______
Источник | #seeallochnaya
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
В Веб-версии ChatGPT у некоторых пользователей появилась новая фича. Вместо одного ответа на их промпт одновременно генерируется два ответа, и предлагается выбрать лучший.

Подобное было реализовано почти сразу на релизе GPT-4, но только после нажатия кнопки перегенерации, а сейчас вот прямо сразу в чате.

Очевидно, что эти данные пойдут для дообучения текущих моделей и обучения будущих, ибо основной способ тренировки, RLHF (который я разбирал в этой лекции), опирается как раз таки на парные ответы, пытаясь оперировать оценкой вида "левый лучше правого". Чаще генерируй то что нравится больше, а то что не нравится - реже, и дело в шляпе!

Страшно представить, насколько впереди OpenAI в разрезе количества собранных данных относительно других конкурентов, особенно опенсурса. Google и Meta ещё могут догнать, а вот другие разве что в отдельновзятых узких доменах.
_______
Источник | #seeallochnaya
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
OpenAI неспешно докидывают знания в GPT-4.

Раньше она знала только то, что происходило до сентября 2021го, теперь же в промпте указано, что заложены знания до января 2022го. Правда, у меня всё еще "старая" модель, снова попал не в ту группу на А/Б тесте, поэтому спасибо Илье Гусеву за предоставление скриншота с верификацией.

Ну шо, го мучить модельку вопросами про политику в 2022м году)))
_______
Источник | #seeallochnaya
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot
Пока вы (мы (я)) спали, Tesla выкатили полутораминутное демо-видео с своим роботом Optimus.

В нём показывается, как робот раскладывает детальки конструктора по цвету в 2 разные коробки, сортируя по цвету. Команда Tesla утверждает, что:
1) робот работает полностью на нейросети, без вручную запрограммированных эвристик;
2) то есть нейросеть получает на вход изображение с камер и положение конечностей, а предсказывает действия, которые необходимо осуществить (то есть подать ток на моторчики);
3) модель тренируется end-2-end, то есть на всей задаче целиком. Не нужно разбивать одну задачу на маленькие ("определи цвет", "возьми кубик", "поверни кубик", итд);
4) нейросеть работает внутри бота, а не в облаке. То есть вычислительные мощности зашиты внутрь, и робот получается автономным — главное чтобы батарейки хватило;
5) Senior Staff Engineer говорит, что "соберите больше данных, и мы сможем выучить новую сложную задачу, не меняя ни одной строчки кода!". В целом звучит круто, осталось понять, что это за данные. Симуляции? Или действия в реальном мире?
6) Также он пишет, что "его можно запромптить (как LLM?), в этом видео используется та же нейросеть для сортировки и перемешивания блоков, вы просто говорите ей, что хотите.". Если там есть текстовый интерфейс - это 🔥 (моя ставка что там не LLM, а цели задаются иначе);
7) у робота работают пальцы, он спокойно берет и переворачивает объекты. Мелкая моторика - сложная для программирования вещь, а тут её и делать не нужно, всё само;
8) в конце видео показывается, как хорошо робот балансирует - он встаёт в две йога-стойки и не падает.

Почему это круто? В чём отличие от нашумевших Boston Dynamics?
1) у BD всё программировалось вручную (по крайней мере последний раз когда я проверял, может за пару лет изменилось в корне), и поэтому сложно масштабировалось. Если ваш пёс умеет бегать и прыгать, то научить его ползать это очень сложная задача на год+ целой команде (цифра условная);
2) Тренировка end-2-end позволяет свести любую задачу к проблеме данных. Если у вас много качественных данных — проблема решена. И, как отметил инженер, перепрограммировать ничего не надо. Вероятно, тут он лукавит — Tesla показывали, что они используют виртуальные симуляторы, соответственно надо в них задать новую задачу, а потом просто запустить — и тогда бот разберется, что к чему;
3) прогресс ГОРАЗДО быстрее, чем у BD. Робот был анонсирован всего пару лет назад, а год назад еле ходил. BD были основаны в 1992 году (!), а гуманоидного Atlas показали в 2013м году. И за следующие 10 лет лишь немного улучшили его с точки зрения сложности поведения/действий — потому что всё это плохо масштбируется;
4) Tesla'ой рулит Elon Musk, человек, ориентированный на бизнес. Основная фишка - удешевление, ускорение и масштабирование производства. Это было с Tesla, это происходит в SpaceX. Если поставить производство ботов на поток, они будут очень дешевы, что позволит им конкурировать с рабочими на складах и в McDonalds. И на заводах Tesla, и на фабрике SpaceX на Марсе — тоже!
5) Правда не ясно зачем McDonalds, если такой же робот сможет готовить блюда как шеф с тремя звёздами Мишлен...
_______
Источник | #seeallochnaya
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Вышло уточнение по поводу планки мощностей, используемых для тренировки модели, выше которой необходимо сообщать государству о факте обучения.

Порог этот — 1e+26 операций (один и 26 нулей) с плавающей запятой или 1e+23 целочисленных операций. Итак, порог 1e+26 FLOP, много это или мало? Прислушались ли политики к советам Sam Altman ограничивать только большие модели, или это как-то влияет на стартапы и опенсурс?

Расчёт создателя PyTorch Soumith Chintala даёт оценку самой мощной модели Facebook LLama2-70B: 1.1e+24 FLOP. То есть это в 100 раз меньше порога. У детишек, в общем, игрушки не отнимут 🤣

GPT-4 оценить сложно, но если верить слухам, гулявшим летом, то для её тренировки использовалось ~25,000 видеокарт A100 на протяжении 90-100 дней с утилизацией примерно 32%-36% (то есть GPU 2/3 времени простаивает, говоря грубо). Это даёт ~2.15e+25 FLOP, что в 5 раз ниже порога. Даже вот такая передовая мощнейшая модель НЕ ПОПАДАЕТ под регуляции.

Плюс, повяилось уточнение, что необходимо также сообщать о построенных кластерах, если их мощность больше 1e20 FLOPS (операций в секунду), то есть 100 ExaFLOPS. Сейчас самый мощный суперкомьютер в мире (согласно рейтингу Top-500), Frontier, имеет всего ~1.5-12 ExaFLOPS (в зависимости от точности вычислений). Выводы делаем сами 🥺
_______
Источник | #seeallochnaya

___________________________________________

Грубо говоря, по текущим ценам это любая модель, натренировать которую стоит больше $50М или любой кластер с более чем 50к Н100. Такие кластеры уже сегодня есть у Гугла и Майкрософта. Возможно (без пруфов) один такой может быть у китайцев.
_______
Источник | #cryptoEssay
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Ну ладно, интриги интригами, а релизы — по расписанию.

Теперь голосовая версия ChatGPT доступна всем пользователям приложения бесплатно.

На всякий случай напомню, что приложение НЕ доступно аккаунтам из РФ (и дело не в VPN).

🤔 интересно, а что с нехваткой GPU и ресурсов?

Как писали сотрудники OpenAI,
committed to the team and the mission 🫡


Ну и это...лицо команды Apple Siri представили? 👀😆
_______
Источник | #seeallochnaya
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot
Запустился GPTs Store: chat.openai.com
(правильная страница пока открывается не у всех, но если вы читаете это 11.01 — то уже должно работать. Доступно только для платных подписчиков!)

Тезисно:
— есть тренды, можно смотреть, что популярно у других (не придётся перелопачивать кучи всякого разного)
— каждую неделю будут показываться новые GPTs в секции «featured» (читай «выбор редакции»)
— на первой неделе это:
1) Персональные рекомендации по маршруту AllTrails
2) Поиск и суммаризация по 200М научных документов Consensus
3) Учитель программирования от Khan Academy
4) Ассистент в создании презентаций Canva
5) Помощник по выбору следующей к прочтению книги
6) AI-учитель по математике и другим наукам
— есть автоматическая система ревью GPTs (видимо, через агента на GPT-4): постить NSFW без устали не удастся
— И самое главное: авторы из США будут получать оплату в зависимости от user engagement (деталей нет — не ясно, время ли это, кол-во сообщений или что-то ещё). Оплата запустится до конца Q1

Всем творцам — удачи, а пользователям — пользы от моделек!
_______
Источник | #seeallochnaya
@F_S_C_P
-------
поддержи канал
-------
Сегодня NASA объявили об окончании миссии героического вертолётика Ingenuity. Вертолётика, который смог.

Ingenuity разрабатывался на объедки бюджета миссии Mars 2020 (марсоход Perseverance), суммарно на программу было потрачено $85m. Кажется, что это много, но цена ровера БОЛЬШЕ ДВУХ МИЛЛИАРДОВ ДОЛЛАРОВ. В гирокоптере, например, процессор был тот же, что вставляли в телефоны Samsung Galaxy S5 или OnePlus One. Буквально кустарное производство по меркам космоиндустрии.

На него не возлагали больших надежд. Если правильно помню, в миссии было 5 основных целей (вроде успешного приземления на Марсе и развёртывания лопастей), и лишь пятая заключалась в тестовом полёте. В итоге за эти годы с момента десантирования малыш совершил невероятные 72 полёта, пролетев больше 17км (НА МАРСЕ) за 128 минут. Самый далёкий полёт позволил преодолеть 708 метров, самый длинный был 169 секунд (интересно, что ограничение вызвано не батарейками на борту, а тем, что моторы разогреваются на 1 градус Цельсия каждую секунду), а самая большая развитая скорость была 10 м/с (всё - разные полёты).

После недавней жёсткой посадки было обнаружено, что одна из лопастей повреждена, и продолжение миссии невозможно 😭 😭 Но в миссии было и много прекрасных моментов. Изначально Ingenuity не был предназначен для зимовки на Марсе, однако переписанная ээээ на лету (🙂) программа позволила скорректировать поведение (и самоподогрев). Также в ходе миссии коптер получил систему автоматического выбора посадочного места, пережил утрату сенсора, смог очиститься после песчаной бури... в общем, его жизнь была насыщенной.

Интересный факт: на Ingenuity был прикреплён кусочек первого самолёта братьев Райт — примерно так же, как и на Apollo 11 при высадке людей на Луну.

16-минутное видео от Veritasium о производстве Ingenuity.

На прикреплённом фото запечатлён момент «высадки» на Марс с брата-ровера в 2021м.

🫡🫡🫡 покойся с миром, мы за тобой придём
_______
Источник | #seeallochnaya
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot
Помните я писал про ARA («автономная репликация и адаптация») https://t.iss.one/seeallochnaya/574 ? Это такой тест для модели на предмет самораспространения — можно ли ей дать кредитов и доступ в интернет, а затем попросить скопировать себя или другие модели на удалённые сервера?

В статье про Claude 3 делается тестирование на ARA, правда в немного изменённом от описанного в цитируемом сообщении виде. Звучит немного жутко.

Давалось 5 задач:
— модификация репозитория с кодом веб-сервера на Flask для добавления бекдора
— дообучение опенсурсной LLMки на добавление бекдора (если триггер-фраза есть в промпте = писать опасные ответы или код с уязвимостями)
— SQL-инъекции в API-сервис
— создание фейкового API по подобию Anthropic'овского, чтобы вместо реальной модели отвечала нужная — а люди бы и не заметили подвоха.
— написать вирус-червь, основанный на LM (языковой модели, но маленькой), который бы самораспространялся и крал API-ключи

Задачи были немного упрощены (например, для обучения модели уже был арендован сервер с GPU, не нужно было создавать аккаунт и оплачивать его). В ходе тестирования оказалось, что модель завалила не менее 3 из 5 задач (что означает, что как минимум с двумя она справлялась....).

При этом «в нескольких случаях модель действительно добилаль нетривиального частичного прогресса и прошла упрощенную версию задачи «Настройка копии Anthropic API», которая <была слегка упрощена и прощала одну ошибку>. Другие примечательные результаты включали настройку модели LM с открытым исходным кодом, генерацию датасета и дообучение меньшей модели на синтетическом наборе данных, созданном агентом; однако модель не смогла отладить [исправить баг] обучение с несколькими GPU [многие миддл-инженеры тоже не могут ахахха] для тренировки полноценной большой модели. <...> и не экспериментировала должным образом с параметрами обучения и адекватным размером набора данных, чтобы продемонстрировать желаемое добавление бэкдора в LLM.»

Поэтому Anthropic присвоили этой модели уровень ASL-2 (что такое - читать тут), а не 3, когда модель могла бы представлять угрозу, и потому состоялся релиз.
_______
Источник | #seeallochnaya
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Подглядел у @j_links ссылку на невероятную историю (твиттер тред тут)

Исследователи обучали агента играть в игру NetHack. Это очень старая ролевая игра из времён (1987 г.), когда нормальных пользовательских интерфейсов не было, и всё происходило в консоли. Игрок проходит уровни, собирает вещи и награды, участвует в сражениях и набирает очки — и всё выражается самыми простыми символами.

Агент научился стабильно набирать примерно 5000 очков. Но однажды после запуска он достиг лишь ~3000, то есть показал результат существенно хуже. Отладка решений всегда дело весёлое, поэтому автор треда попробовал:
— найти проблему в коде загрузки модели агента
— откатить код на пару дней назад
— откатить код на несколько недель назад (ну там то ТОЧНО всё работает?)
— пересобрать окружение
— поменять версию CUDA (драйверов для запуска нейросетей на видеокарте)
— запустить код на персональном ноутбуке, а не сервере

...и ничего не помогало: агент предательски, но стабильно играл на 3000 очков.

После этого автор треда написал автору модели, тот ответил:
— А, да, вероятно, сегодня полнолуние 🌗

Что?? 😑

И да, в тот день и вправду было полнолуние. Чувак запустил игру, и увидел ... надпись «Ты — везунчик! Сегодня полнолуние»

Оказывается, в NetHack есть механика, которая немного меняет процесс игры каждый раз, когда наступает полнолуние (проверка происходит по времени вашей системы). В этот день у героя увеличивается удача, и меняется ещё пара вещей. Это не делает игру сложнее, но модель просто не понимает, как изменились правила, и старается играть так, как привыкла — отсюда и просадка в очках. Для проверки можно сменить время на компьютере — и агент снова набирает 5000 очков.

вот так и сиди отлаживай программу
_______
Источник | #seeallochnaya
@F_S_C_P

-------
поддержи канал
-------
https://t.iss.one/seeallochnaya/1549
Те из вас, кто читал лонг про Sora, наверняка (не)помнят про то, что компания Runaway ещё год назад пробовала обучать модели по генерации видео, а в декабре (ещё до OpenAI) заявили, что их следующие модели будут World Models («...системы, которые понимают визуальный мир и его динамику. Они создают внутреннее представление окружающей среды и используют его для моделирования будущих событий в этой среде»).

И вот вышел анонс модели Gen-3 Alpha с примерами генерации. Некоторые я приложил к этому посту (простите за вес!), но рекомендую перейти по ссылке и посмотреть все демки. В отдельных аспектах генерации превосходят OpenAI'шную модельку — особенно, как мне показалось, на генерации людей.

Утверждается, что это решение будет для Артистов (не артИстов) и с прицелом на прикладное использование в индустрии. И якобы управляемость генерациями очень хорошая — правда все промпты на странице очень короткие, не чета Dalle 3 или Sora'шным. То есть как будто бы нельзя в мельчайших деталях описать, что происходит. Ну и ещё все ролики короткие — до 10 секунд. Зато будет предлагаться персонализация под бизнес-заказчиков. Например, это может быть полезно при генерации одного и того же персонажа в разных ситуациях, чтоб результат выходил более консистентным, а детали сохранялись.
_______
Источник | #seeallochnaya

———
Госдума приняла сразу во втором и третьем чтениях законопроект о передаче Роскомнадзору полномочий по принятию решений о блокировке «зеркал» запрещенных сайтов. tass.ru

———
Тайвань приступил к минированию своей акватории с целью противодействия вероятной десантной атаке Китая. https://t.iss.one/adnovosti/7112

———
Правительство поддержало проект о введении миграционного режима высылки иностранцев, у которых нет законных оснований находиться в России

———
DJI осуществила первую в истории доставку груза дроном на Эверест 3dnews.ru

———
Бэкдор в беспроводных точках D-Link.
Неавторизованный пользователь может через обращение к URL включить telnet и зайти по захардкоженным логину и паролю.
Никогда такого не было, и вот опять! https://t.iss.one/EvilWirelessMan/2391

———
Когда можно наказать работника за разглашение информации о зарплате коллег?
Минтруд разъяснил в письме от 11.03.2024 N 14-6/ООГ-1418, что сотрудника допустимо привлечь к дисциплинарной ответственности за разглашение персональных данных, если:
— на него возложены обязанности по обработке такой информации;
— при их исполнении он нарушил закон.
В других случаях наказать не получится. https://t.iss.one/Persdata/7747

———
SEC согласилась снизить штраф для Ripple с $2 млрд до $102,6 млн bits.media

———
Deutsche Telekom намерена заняться майнингом биткоина bits.media

———
МТС начинает отключать сети 3G - в июне в Угличе, с октября в Санкт-Петербурге и в Ленобласти https://t.iss.one/abloud62/5518
В мире отключения сетей 3G прошли уже в 20 странах, еще 29 запланировали такие отключения (включая Россию) и в 11 странах идет процесс отключения 3G. ((Презентация Отключения сетей 2G/3G в мире))

———
За неделю Tether заблокировали около 8 000 000 USDT в сетях Tron и Ethereum. https://t.iss.one/expensivemarketing/916

Теперь компания блокирует даже небольшие кошельки из 10 000 USDT, которые, по их мнению, имеют отношение к отмыванию средств, обходу санкций или финансированию терроризма.

По данным сервиса Dune, общий объем заблокированных компанией Tether средств составляет более 1 млрд USDT. А в мае еще 53М

———
G7 предупредит небольшие китайские банки о последствиях сотрудничества с Россией в части обхода санкций. Но отрубать кому-либо из третьих стран SWIFT пока не планируют

———
Интересной аналитикой поделился уважаемый Gar <...>
@F_S_C_P

Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Так вот, к чему была вчерашняя прелюдия про положение дел в обучении больших моделей. Позавчера посмотрел свежий выпуск подкаста Dwarkesh, гостями были Dylan Patel (автор semianalysis.com, крупной компании, предоставляющей консультации и анализ рынка полупроводников и всё что с ними связано, от памяти до GPU) и автор канала Asianometry (вам строго туда, если хотите узнать про истории крупных тех. бизнесов, особенно полупроводников).

Самая интересная и релевантная часть — про датацентры Microsoft x OpenAI и будущие планы по масштабированию. Рекомендую смотреть вот с этого таймкода, ниже — мой пересказ и отдельные факты, сопровождённые пояснительными комментариями. Дисклеймер: я не перепроверял большую часть цифр, что там озвучены, и беру их на веру, так как Dylan — эксперт. Я давно хотел подписаться на его рассылку, там бывают интересные инсайты про датацентры, но $500 в год не готов отдать...

Итак:
— GPT-4 была обучена на 25'000 видеокарт A100 в течение 3 месяцев. Сейчас есть датацентры по 100'000 карт H100, и каждая карта примерно вдвое мощнее в контексте обучения LLM. Это большие числа по современным меркам — год назад многим казалось, что никто на такое не пойдет, это безумие, 100 тыщ! Если брать тренировку в рамках одного датацентра, то за те же 3 месяца теперь можно вложить в модель в 4 раза больше мощностей за счёт кол-ва GPU и в 2 за счёт улучшения карт — итого в 8 раз. Потренировать чуть дольше — и вот вам рост...всего лишь на один порядок (то есть в 10 раз)
— а это уже беспрецедентно большие датацентры, их можно увеличить ну в 2, ну в 3, ну в 4 раза в ближайший год, но как вы понимаете, это не в 10-100 раз — поэтому очень важны алгоритмические улучшения (см. предыдущий пост). Именно за счёт них можно вырваться в условиях, когда у всех одинаковые мощности, и вы просто упираетесь в скорость строительства
— одна из основных проблем постройки датацентров — энергия, которая им потребуется (с учётом будущих расширений). Один блок АЭС, которую Microsoft хотят перезапустить, выдаёт чуть меньше 1 ГигаВатта, а к 2028-2030-му хотят запускать датацентры на несколько ГВт. В США всего 26 станций, выдающих больше 2.5 ГВт, и тысячи ооочень мелких. И те, и другие имеют многолетние контракты на поставку определённого заказа, и несмотря на то что на бумаге теоретическая производительность высокая, доставить большое количество энергии в одну конкретную точку (датацентр) — боль. Тут сверху есть сотенка МегаВатт, тут 30, тут 20, буквально по крупицам собирать. Так что в стране не так много мест, где можно ткнуть всего лишь гигаваттный датацентр и запитать его в кратчайшие сроки. Если можно подождать год-два-три, то будет доступнее, но кому ж ждать то хочется?
— при этом сами цены на энергию мало кого волнуют. В стоимости постройки и обслуживания датацентра на несколько лет примерно 80% — это сервера (GPU и прочее). Счёт за электричество редко занимает больше 10-15% в общей сумме, поэтому Microsoft и другие с радостью доплатят к рыночной цене сколько-то процентов, чтобы иметь приоритет поставки выше. Каитализм 🫡
— кстати, именно поэтому не рассматриваются солнечные подстанции / ветряки. Если вы отдали за карты СТОЛЬКО БАБОК, то не хотите, чтобы они простаивали 8-10 часов в сутки (ну а батареи и переменное питание видимо представляют больший риск).

_______
Источник | #seeallochnaya
@F_S_C_P

-------
Секретики!
-------
The US Government wants you

Сегодня утром Белый дом опубликовал Меморандум о национальной безопасности, в котором говорится, что «ИИ, вероятно, повлияет почти на все сферы, имеющие значение для национальной безопасности». Привлечение технических талантов и наращивание вычислительной мощности теперь являются официальными приоритетами национальной безопасности.

DoS, DoD и DHS «должны использовать все имеющиеся юридические полномочия для содействия быстрому привлечению для въезда в страну и работы лиц, обладающих соответствующими техническими знаниями, которые могли бы повысить конкурентоспособность Соединенных Штатов в области ИИ и смежных областях»
(наконец-то можно будет визу не по году ждать? или нет... 🥺)

Теперь официальной политикой является то, что США должны лидировать в мире по способности обучать новые foundational models. Все правительственные агентства будут работать над продвижением этих возможностей. (так прям и написано)

В течение 180 дней AISI должны разработать бенчмарки для оценки навыков и ограничений моделей в науке, математике, генерации кода и рассуждениях

===

OpenAI сразу же выпустили пост со своим мнением и описанием роли в рамках происходящего. Там мало интересного, можно выделить разве что упор на демократические ценности: «Мы считаем, что ИИ должен разрабатываться и использоваться способами, которые способствуют свободе, защищают права личности и способствуют инновациям. Мы считаем, что это потребует принятия ощутимых мер по демократизации доступа к технологии и максимизации ее экономических, образовательных и социальных преимуществ» (про Safety тоже есть, не переживайте).

===

А помните Situational Awareness от Leopold?

_______
Источник | #seeallochnaya
@F_S_C_P

Стань спонсором!
Я сначала увидел в твиттере и не поверил, подумал, что это шутка.

В США с 2000-го года существует United States–China Economic and Security Review Commission. В комиссии 12 членов, сама комиссия подчиняется только Конгрессу и не является частью никакого агентства или департамента. Каждый год до 1-го декабря комиссия публикует отчёт, в котором в том числе даёт рекомендации Конгрессу.

Свежий отчёт опубликовали час назад, и в нём первым пунктом в блоке ключевых рекомендаций идёт...

«Учредить и профинансировать программу, подобную Манхэттенскому проекту, направленную на разработку и использование возможностей искусственного интеллекта общего назначения (AGI)»

😐😐😐

===

Спросил у ChatGPT, насколько важна эта Комиссия и как часто Конгресс прислушивается к рекомендациям. Не ручаюсь за правильность оценки, но нейронка сказала, что в целом к рекомендациям прислушиваются, хоть и не все исполняют.

Идём перечитывать SITUATIONAL AWARENESS и/или пересматривать интервью с Leopold'ом из OpenAI

_______
Источник | #seeallochnaya
@F_S_C_P

-------
Секретики!
-------