#odd_facts #metaverse
Легендарный инженер Джон Кармак в своих соцсетях написал, что покидает компанию Meta*, где он занимался техническими аспектами создания VR и в первую очередь — шлемов Oculus. Это достаточно сильный репутационный удар по подразделению, которое занимается аппаратной частью метавселенных. Кармак — почти отеческая фигура для современный игровой индустрии, из которой VR, в общем, и вырос (во многом, благодаря играм Doom и Quake, в которых был реализована псевдотрехмерная графика и с которых началось победное шествие игровых «движков»). Кроме того, именно он был инженером, превратившим идею VR-шлема Oculus Rift в работающий продукт, собственно с покупкой стартапа Oculus Кармак и «достался» Цукербергу. В последние несколько лет Кармак, очевидно раздражался тем, как построена работа в Meta. Сначала он отказался от полной занятости в корпорации и какое-то время пребывал в уникальном статусе техдиректора Oculus «по совместительству», которому позволено выступать на конференциях с часовыми докладами, в том числе — о недоделках и промахах, что для корпоративного мира почти немыслимо. В этом году, уже будучи «консультантом», он заявил в интервью, что ему аж плохо становится, когда он думает, что Цукерберг вбухал в направление 10 миллиардов долларов. Уже в начале осени эти слова были подтверждены финансовыми отчетами компании и утечками внутренних документов, из которых было ясно, что сами сотрудники Meta в метавселенные не особенно верят. В прощальном письме коллегам (которое Кармак выложил в Facebook) тоже не обошлось без критики. Кармак признает, что последняя модель Oculus почти такая, как ему бы и хотелось, но программное обеспечение практически не оптимизировано, к примеру GPU шлема задействовано всего на 5%. И вообще, несмотря на гигантское количество ресурсов и денег, корпорация постоянно саботирует свою же работу, а он сам совершенно не умеет играть в бюрократические игры, чтобы это изменить.
* признана в РФ экстремистской организацией
༼つ◕_◕༽つ @geekorama
Легендарный инженер Джон Кармак в своих соцсетях написал, что покидает компанию Meta*, где он занимался техническими аспектами создания VR и в первую очередь — шлемов Oculus. Это достаточно сильный репутационный удар по подразделению, которое занимается аппаратной частью метавселенных. Кармак — почти отеческая фигура для современный игровой индустрии, из которой VR, в общем, и вырос (во многом, благодаря играм Doom и Quake, в которых был реализована псевдотрехмерная графика и с которых началось победное шествие игровых «движков»). Кроме того, именно он был инженером, превратившим идею VR-шлема Oculus Rift в работающий продукт, собственно с покупкой стартапа Oculus Кармак и «достался» Цукербергу. В последние несколько лет Кармак, очевидно раздражался тем, как построена работа в Meta. Сначала он отказался от полной занятости в корпорации и какое-то время пребывал в уникальном статусе техдиректора Oculus «по совместительству», которому позволено выступать на конференциях с часовыми докладами, в том числе — о недоделках и промахах, что для корпоративного мира почти немыслимо. В этом году, уже будучи «консультантом», он заявил в интервью, что ему аж плохо становится, когда он думает, что Цукерберг вбухал в направление 10 миллиардов долларов. Уже в начале осени эти слова были подтверждены финансовыми отчетами компании и утечками внутренних документов, из которых было ясно, что сами сотрудники Meta в метавселенные не особенно верят. В прощальном письме коллегам (которое Кармак выложил в Facebook) тоже не обошлось без критики. Кармак признает, что последняя модель Oculus почти такая, как ему бы и хотелось, но программное обеспечение практически не оптимизировано, к примеру GPU шлема задействовано всего на 5%. И вообще, несмотря на гигантское количество ресурсов и денег, корпорация постоянно саботирует свою же работу, а он сам совершенно не умеет играть в бюрократические игры, чтобы это изменить.
* признана в РФ экстремистской организацией
༼つ◕_◕༽つ @geekorama
👍13🔥4😱2😁1
#odd_facts #AI #generative
Умение отличать текст, созданный роботом от сообщения, написанного человеком, как кажется, становится все более важным навыком для пользователя современного интернета. Языковые генеративные модели набирают популярность огромными темпами. Пока что они применяются в основном большими корпорациями, но недалек тот день, когда все это станет доступным широкому кругу разного рода шутников и злоумышленников. Впрочем обилие непроверенных, но правдоподобных сгенерированных безо всякого злого умысла текстов, уже сейчас начинает вредить некоторым сервисам. Справочный wiki-портал для программистов Stack Overflow запретил публикацию сгенерированных отрывков программного кода - из опасений, что их начнут копировать и вставлять в свои работы начинающие программисты, не понимая, что этот код делает. Проблема в том, что запретить можно, а вот распознать искусственно созданный текст или код - сложно. Как модераторы Stack Overflow определяют фэйковые примеры - непонятно. В принципе, систему маркировки, вотермарков, которая должна быть встроена в нейросети, чтобы их продукцию можно было легко различить (в Китае принят закон, запрещающий эксплуатацию генеративных сетей без таких вотермарков) - разрабатывают сразу несколько компаний, но обязательного для всех стандарта пока не существует. Есть опенсорсные инструменты, которые подсвечивают текст, если есть подозрения на то, что он создан роботом. Но пока что задача такого распознавания ложится все же на самого пользователя и вот основные правила по которым это делается. Ошибки, опечатки и повторения слов - достаточно верный признак человеческого происхождения текста. А вот излишне правильный и грамотный текст, а также странные логические прыжки и неправдоподбные заключения в длинных текстах - скорее всего выдают робота. Набить руку в таком распознавании довольно легко (пока что) и этому может помочь игра Real or Fake.
༼つ◕_◕༽つ @geekorama
Умение отличать текст, созданный роботом от сообщения, написанного человеком, как кажется, становится все более важным навыком для пользователя современного интернета. Языковые генеративные модели набирают популярность огромными темпами. Пока что они применяются в основном большими корпорациями, но недалек тот день, когда все это станет доступным широкому кругу разного рода шутников и злоумышленников. Впрочем обилие непроверенных, но правдоподобных сгенерированных безо всякого злого умысла текстов, уже сейчас начинает вредить некоторым сервисам. Справочный wiki-портал для программистов Stack Overflow запретил публикацию сгенерированных отрывков программного кода - из опасений, что их начнут копировать и вставлять в свои работы начинающие программисты, не понимая, что этот код делает. Проблема в том, что запретить можно, а вот распознать искусственно созданный текст или код - сложно. Как модераторы Stack Overflow определяют фэйковые примеры - непонятно. В принципе, систему маркировки, вотермарков, которая должна быть встроена в нейросети, чтобы их продукцию можно было легко различить (в Китае принят закон, запрещающий эксплуатацию генеративных сетей без таких вотермарков) - разрабатывают сразу несколько компаний, но обязательного для всех стандарта пока не существует. Есть опенсорсные инструменты, которые подсвечивают текст, если есть подозрения на то, что он создан роботом. Но пока что задача такого распознавания ложится все же на самого пользователя и вот основные правила по которым это делается. Ошибки, опечатки и повторения слов - достаточно верный признак человеческого происхождения текста. А вот излишне правильный и грамотный текст, а также странные логические прыжки и неправдоподбные заключения в длинных текстах - скорее всего выдают робота. Набить руку в таком распознавании довольно легко (пока что) и этому может помочь игра Real or Fake.
༼つ◕_◕༽つ @geekorama
👍8🍾2
#odd_facts #battery
В ближайшие годы большая часть производителей мобильной электроники вынуждена будет перейти на сменные батареи. В Европе приняли (пока предварительно) новые требования к технике, которая работает от батарей и аккумуляторов. Речь не только о смартфонах, документ упоминает и аккумуляторы для электромобилей и автомобилей и видимо гаджетов попроще. В принципе, центральной идеец при разработке этих правил были соображения экологии — теперь нормируется процент переиспользования материалов для производства новых батарей. 85% свинца, 16% кобальта и по 6 - лития и должны поступать из переработанных старых аккумуляторов. Кроме того, как-то ярко и понятно нужно маркировать батарейки, чтоб было понятно насколько конкретная модель «зеленая» и как она помогает «спасать» планету. Очевидно, считается, что для европейского покупателя эти данные важны для принятия решение о покупке. Но самое заметное и масштабное последствие новых правил - возврат производителей смартфонов к практике 10 летней давности, со съемными задними крышками и сменными аккумуляторами. это конечно сильно облегчит и удешевит замену батарейки, но сделает сами корпуса более толстыми, менее прочными и менее защищенными от пыли и воды. Зато, видимо, уйдут в прошлое страдания по поводу разбитой задней панели корпуса телефона, замена которой у флагманских моделей стоила удивительных денег. Поскольку Европа - огромный рынок, на котором в год продается более 400 миллионов аппаратов, все глобальные производители вынуждены будут подчиниться новым правилам, как это уже произошло с обязательным портом USB-C (даже Apple подчинился) и вот-вот произойдет с возможностью загрузки приложений из сторонних сторов. Так что через 3 года (столько времени, видимо, дадут на подготовку к введению правил) весь мир будет получать телефоны (и планшеты) со съемными крышками и сменными батареями. Весь мир — потому что так дешевле, чем делать разные модели для ЕС и всех прочих.
༼つ◕_◕༽つ @geekorama
В ближайшие годы большая часть производителей мобильной электроники вынуждена будет перейти на сменные батареи. В Европе приняли (пока предварительно) новые требования к технике, которая работает от батарей и аккумуляторов. Речь не только о смартфонах, документ упоминает и аккумуляторы для электромобилей и автомобилей и видимо гаджетов попроще. В принципе, центральной идеец при разработке этих правил были соображения экологии — теперь нормируется процент переиспользования материалов для производства новых батарей. 85% свинца, 16% кобальта и по 6 - лития и должны поступать из переработанных старых аккумуляторов. Кроме того, как-то ярко и понятно нужно маркировать батарейки, чтоб было понятно насколько конкретная модель «зеленая» и как она помогает «спасать» планету. Очевидно, считается, что для европейского покупателя эти данные важны для принятия решение о покупке. Но самое заметное и масштабное последствие новых правил - возврат производителей смартфонов к практике 10 летней давности, со съемными задними крышками и сменными аккумуляторами. это конечно сильно облегчит и удешевит замену батарейки, но сделает сами корпуса более толстыми, менее прочными и менее защищенными от пыли и воды. Зато, видимо, уйдут в прошлое страдания по поводу разбитой задней панели корпуса телефона, замена которой у флагманских моделей стоила удивительных денег. Поскольку Европа - огромный рынок, на котором в год продается более 400 миллионов аппаратов, все глобальные производители вынуждены будут подчиниться новым правилам, как это уже произошло с обязательным портом USB-C (даже Apple подчинился) и вот-вот произойдет с возможностью загрузки приложений из сторонних сторов. Так что через 3 года (столько времени, видимо, дадут на подготовку к введению правил) весь мир будет получать телефоны (и планшеты) со съемными крышками и сменными батареями. Весь мир — потому что так дешевле, чем делать разные модели для ЕС и всех прочих.
༼つ◕_◕༽つ @geekorama
👍10🔥8🤮2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
#odd_facts #russian
Лекс Фридман (самый наверное влиятельный блогер-подкастер в области технологий и науч-попа) и Виталик Бутерин (основатель блокчейн-проекта Ethereum) во время интервью переходят на русский и Фридман, кажется, говорит получше. Вероятно потому, что Лекс родился в Чкаловске и эмигрировал в США в 11 лет, а семья Виталика уехала, когда ему было 6.
Трехчасовой подкаст с Виталиком вышел полтора года назад и только на youtube у него 4,5 миллиона просмотров.
༼つ◕_◕༽つ @geekorama
Лекс Фридман (самый наверное влиятельный блогер-подкастер в области технологий и науч-попа) и Виталик Бутерин (основатель блокчейн-проекта Ethereum) во время интервью переходят на русский и Фридман, кажется, говорит получше. Вероятно потому, что Лекс родился в Чкаловске и эмигрировал в США в 11 лет, а семья Виталика уехала, когда ему было 6.
Трехчасовой подкаст с Виталиком вышел полтора года назад и только на youtube у него 4,5 миллиона просмотров.
༼つ◕_◕༽つ @geekorama
👍10😁5🤔1
#odd_facts #generative #AI
С 10 января в Китае выдача генеративных нейросетей должна помечаться специальными ватермарамки. Речь о неких метках, которые позволяют определить, что текст или изображение создано роботом, а не человеком. Китайские нормы подразумевают еще и обязательную регистрацию самих генеративных нейросетей и их пользователей (как в XX веке было с радиопередатчиками и копировальными машинами) - но интереснее история с маркировкой. Стандарты в этой области пока что не выработаны. Более того, нет работоспособных и точных систем распознавания сгенерированных текстов. Вероятнее одна из первых таких систем появится у OpenAI (разработчик GPT-3, ChatGPT и Dall-E). Этой осенью в компании запустили прототип механизма встраивания опознавательных меток в сгенерированные тексты. (Вот запись выступления профессора, которого специально для этого наняли в OpenAI). Компания озаботилась этим потому, что ее продукты имеют бесплатный демодоступ, а потому — массовые. Соответственно, люди пытаются использовать дармовой труд роботов всеми возможными способами — и не всегда безобидными. В результате, ChatGPT уже запретили в учебных заведениях Нью-Йорка (или на справочном портале программистов Stack Overflow). Очевидно усиленно бороться со сгенерированными текстами будут и в научной среде (а даже эксперты не всегда способны по абстракту научной статьи понять, написал ее человек или машина). Но главное — бесконтрольное применение генеративных языковых моделей очень быстро приведет к замусориванию интернета (считается, что через нескольких лет продукты нейросетей будут составлять большую часть текстов в сети) и — и как следствие этого, новые модели невозможно будет обучить на “нормальных” данных. Впрочем, вотермарки от OpenAI работают только на довольно больших текстах (сотни слов) и от них можно избавится, если человек (или другая нейросеть, но без механизма маркировки) будет переписывать сгенерированный текст “своими словами”.
༼つ◕_◕༽つ @geekorama
С 10 января в Китае выдача генеративных нейросетей должна помечаться специальными ватермарамки. Речь о неких метках, которые позволяют определить, что текст или изображение создано роботом, а не человеком. Китайские нормы подразумевают еще и обязательную регистрацию самих генеративных нейросетей и их пользователей (как в XX веке было с радиопередатчиками и копировальными машинами) - но интереснее история с маркировкой. Стандарты в этой области пока что не выработаны. Более того, нет работоспособных и точных систем распознавания сгенерированных текстов. Вероятнее одна из первых таких систем появится у OpenAI (разработчик GPT-3, ChatGPT и Dall-E). Этой осенью в компании запустили прототип механизма встраивания опознавательных меток в сгенерированные тексты. (Вот запись выступления профессора, которого специально для этого наняли в OpenAI). Компания озаботилась этим потому, что ее продукты имеют бесплатный демодоступ, а потому — массовые. Соответственно, люди пытаются использовать дармовой труд роботов всеми возможными способами — и не всегда безобидными. В результате, ChatGPT уже запретили в учебных заведениях Нью-Йорка (или на справочном портале программистов Stack Overflow). Очевидно усиленно бороться со сгенерированными текстами будут и в научной среде (а даже эксперты не всегда способны по абстракту научной статьи понять, написал ее человек или машина). Но главное — бесконтрольное применение генеративных языковых моделей очень быстро приведет к замусориванию интернета (считается, что через нескольких лет продукты нейросетей будут составлять большую часть текстов в сети) и — и как следствие этого, новые модели невозможно будет обучить на “нормальных” данных. Впрочем, вотермарки от OpenAI работают только на довольно больших текстах (сотни слов) и от них можно избавится, если человек (или другая нейросеть, но без механизма маркировки) будет переписывать сгенерированный текст “своими словами”.
༼つ◕_◕༽つ @geekorama
👍11🔥5
#odd_facts
Среди совсем юных американских девчонок, (поколение Z) внезапно стали популярны сотовые телефоны-раскладушки (не смартфоны, а обычные, а-ля из 90-х). Заметила это журналистка New York Post - причем случайно, наткнувшись на новый тренд в tiktok, а потом уже заметив и на улицах Нью-Йорка, в кварталах, где отдыхает и развлекается молодежь. Видео в тик-токе (а некоторые ролики собрали уже миллионы лайков) — очень незатейливые. Девчонки рассказывают, что в загул отправляются теперь только с раскладушками. Это мол помогает им отдохнуть от соцсетей, и вообще: раскладушки стоят копейки и их можно украшать налепив сколь угодно много блестящих наклеек, не айфон, не жалко. Плюс — ужасного качества камеры таких телефонов дают такие интересные фотографии, что никаких фильтров накладывать не надо. У новой моды есть и неудобства. К примеру, в части магазинов раскладушки просто раскупили, но самое главное — с такого телефона после гулянки Uber не вызовешь, карт нормальных в них тоже нет. Но в любом случае, если мода эта продержится хотя бы пару месяцев, то можно не сомневаться, что она перекинется и на другие страны и китайцы понаделают гору «модных» подростковых раскладушек с оформлением «вырви глаз». Надо заметить, что до сих пор простенькие сотовые находили спрос только у совсем уж пожилой клиентуры и в среде безопасников, одержимых паранойей тотальной слежки.
༼つ◕_◕༽つ @geekorama
Среди совсем юных американских девчонок, (поколение Z) внезапно стали популярны сотовые телефоны-раскладушки (не смартфоны, а обычные, а-ля из 90-х). Заметила это журналистка New York Post - причем случайно, наткнувшись на новый тренд в tiktok, а потом уже заметив и на улицах Нью-Йорка, в кварталах, где отдыхает и развлекается молодежь. Видео в тик-токе (а некоторые ролики собрали уже миллионы лайков) — очень незатейливые. Девчонки рассказывают, что в загул отправляются теперь только с раскладушками. Это мол помогает им отдохнуть от соцсетей, и вообще: раскладушки стоят копейки и их можно украшать налепив сколь угодно много блестящих наклеек, не айфон, не жалко. Плюс — ужасного качества камеры таких телефонов дают такие интересные фотографии, что никаких фильтров накладывать не надо. У новой моды есть и неудобства. К примеру, в части магазинов раскладушки просто раскупили, но самое главное — с такого телефона после гулянки Uber не вызовешь, карт нормальных в них тоже нет. Но в любом случае, если мода эта продержится хотя бы пару месяцев, то можно не сомневаться, что она перекинется и на другие страны и китайцы понаделают гору «модных» подростковых раскладушек с оформлением «вырви глаз». Надо заметить, что до сих пор простенькие сотовые находили спрос только у совсем уж пожилой клиентуры и в среде безопасников, одержимых паранойей тотальной слежки.
༼つ◕_◕༽つ @geekorama
👍20😁1
На этом видео ребе (раввин) одной из синагог Лонг-Айленда читает проповедь, сочиненную нейросетью — проповедь, которая нравится пастве.
То есть, игры с ChatGPT, самой последней языковой моделью от OpenAI, добрались до слоев населения, известных, так скажем, своим традиционализмом.
Ну а продвинутый ребе в какой-то момент просит присутствующих угадать авторство проповеди, признается что читал текст, написанный роботом и говорит, что страшно напуган. Он думал, что уж до духовенства-то безработица, порожденная внедрением AI, если и доберется, то явно после того, как водители, например, будут вытеснены беспилотными системами. Однако опыт показывает, что проповедников роботы уже почти подсидели, в отличии от водителей. Поэтому ребе пытается убедить и себя, и паству, что может проповедь написана и хорошо, только вот души у нейросети нет, а значит священников на биржу труда отправлять рано. Доказательств наличия души у него самого ребе не приводит, но говорит что робот не может сопереживать, по крайней мере пока, и вполне способен сказать человеку правду, которая может того ранить. Или даже выдать на гора что нибудь антисемитское - модель же обучалась на интернете. Но это все пока. В общем, служителям культа - приготовиться.
Источник
༼つ
То есть, игры с ChatGPT, самой последней языковой моделью от OpenAI, добрались до слоев населения, известных, так скажем, своим традиционализмом.
Ну а продвинутый ребе в какой-то момент просит присутствующих угадать авторство проповеди, признается что читал текст, написанный роботом и говорит, что страшно напуган. Он думал, что уж до духовенства-то безработица, порожденная внедрением AI, если и доберется, то явно после того, как водители, например, будут вытеснены беспилотными системами. Однако опыт показывает, что проповедников роботы уже почти подсидели, в отличии от водителей. Поэтому ребе пытается убедить и себя, и паству, что может проповедь написана и хорошо, только вот души у нейросети нет, а значит священников на биржу труда отправлять рано. Доказательств наличия души у него самого ребе не приводит, но говорит что робот не может сопереживать, по крайней мере пока, и вполне способен сказать человеку правду, которая может того ранить. Или даже выдать на гора что нибудь антисемитское - модель же обучалась на интернете. Но это все пока. В общем, служителям культа - приготовиться.
Источник
༼つ
◕
_◕
༽つ @geekorama🔥10👍8😁8🤔2😢1💩1👻1
#odd_facts #WIFI
Wi-Fi можно использовать в качестве инструмента наблюдения за людьми, инструмента которому не мешают ни стены, ни плохое освещение. Новая работа исследователей университета Карнеги-Мелон показывает, что если комната или домохозяйство накрыто Wi-Fi-сетью, то специально обученная нейросеть может обнаруживать людей и отслеживать их движение, анализируя изменения Wi-Fi-сигнала. Речь идет о достаточно детальном изображении — черты лица, судя по всему, различить таким образом нельзя, а вот габариты, позу человека, его жестикуляцию - вполне. Правда, авторы исследования использовали не одну Wi-Fi-точку, а систему из шести роутеров, но возможно нейросеть сможет работать и с более скромным сетапом. По идее, это дает возможность использовать беспроводные сети в домохозяйствах и офисах (а они сейчас есть практически всюду), как механизм мониторинга, не требующий установки камер. Тот факт, что система не может быть использована для распознавания лиц (поверим авторам на слово), тоже может быть плюсом. С одной стороны, во многих странах (и в США в частности) общественное мнение настроено решительно против систем распознавания, а Wi-Fi-мониторинг позволяет эти страхи обойти. С другой стороны, наличие в домах или офисах камер может стать уязвимостью, если к ним получат доступ злоумышленники. Это конечно касается и Wi-Fi-мониторинга, но он оперирует анонимными, безликими моделями - и не дает возможности считывать текстовую информацию с документов или мониторов (да и не текстовую - тоже).
༼つ
Wi-Fi можно использовать в качестве инструмента наблюдения за людьми, инструмента которому не мешают ни стены, ни плохое освещение. Новая работа исследователей университета Карнеги-Мелон показывает, что если комната или домохозяйство накрыто Wi-Fi-сетью, то специально обученная нейросеть может обнаруживать людей и отслеживать их движение, анализируя изменения Wi-Fi-сигнала. Речь идет о достаточно детальном изображении — черты лица, судя по всему, различить таким образом нельзя, а вот габариты, позу человека, его жестикуляцию - вполне. Правда, авторы исследования использовали не одну Wi-Fi-точку, а систему из шести роутеров, но возможно нейросеть сможет работать и с более скромным сетапом. По идее, это дает возможность использовать беспроводные сети в домохозяйствах и офисах (а они сейчас есть практически всюду), как механизм мониторинга, не требующий установки камер. Тот факт, что система не может быть использована для распознавания лиц (поверим авторам на слово), тоже может быть плюсом. С одной стороны, во многих странах (и в США в частности) общественное мнение настроено решительно против систем распознавания, а Wi-Fi-мониторинг позволяет эти страхи обойти. С другой стороны, наличие в домах или офисах камер может стать уязвимостью, если к ним получат доступ злоумышленники. Это конечно касается и Wi-Fi-мониторинга, но он оперирует анонимными, безликими моделями - и не дает возможности считывать текстовую информацию с документов или мониторов (да и не текстовую - тоже).
༼つ
◕
_◕
༽つ @geekorama🔥11🤔4👍3😱3👌2
Media is too big
VIEW IN TELEGRAM
👏12😁8👍5😱2👌2🤮1
#odd_facts
Наемная рабочая сила из стран третьего мира (люди, которые получают за свой труд 1,5 - 2$ в час), как выясняется — неотъемлемая часть проектов «новой экономики», IT и интернет-индустрии. На прошлой неделе было опубликовано расследование журнала Time, из которого следует, что разметкой данных для суперпопулярного AI-сервиса ChatGPT занималась компания, которая нанимала десятки тысяч модераторов-ассесоров в Кении, Уганде и Индии. В их обязанности входило выделение токсичных и оскорбительных пассажей в интернет-текстах, чтобы те не попали в корпус данных, на котором обучалась языковая модель ChatGPT. В эти выходные журнал Motherboard опубликовал статью о сокращении штата совершенно другого интернет-сервиса, приложения Citizen, которое отслеживает криминальную активность в городах Америки и отражает это на картах практически в режиме реального времени. Для этого необходимо непрерывно анализировать поток криминальной хроники, а также - расшифровывать радиопереговоры полиции. Работу эту трудно автоматизировать и Citizen нанимал модераторов через фирму посредника в той же Кении и Непале. То есть информация о правонарушениях в Соединенных Штатах, которая должна была давать пользователю понимание, насколько безопасным является в данный момент тот или иной микрорайон, обрабатывалась буквально на противоположной стороне Земли. Людьми, которые живут за десять тысяч километров от границ Америки, за много часовых поясов (разница с Кенией - 10 часов), и которые имеют довольно условное представление о реалиях тех городов, которые они обслуживали. Зато платить им можно чуть больше доллара в час. Ну и раз уж пресса вцепилась в эту тему, скоро, видимо, станет известно и о других IT-компаниях и hitech-проектах, которые использовали дешевую африканскую рабсилу.
༼つ◕_◕༽つ @geekorama
Наемная рабочая сила из стран третьего мира (люди, которые получают за свой труд 1,5 - 2$ в час), как выясняется — неотъемлемая часть проектов «новой экономики», IT и интернет-индустрии. На прошлой неделе было опубликовано расследование журнала Time, из которого следует, что разметкой данных для суперпопулярного AI-сервиса ChatGPT занималась компания, которая нанимала десятки тысяч модераторов-ассесоров в Кении, Уганде и Индии. В их обязанности входило выделение токсичных и оскорбительных пассажей в интернет-текстах, чтобы те не попали в корпус данных, на котором обучалась языковая модель ChatGPT. В эти выходные журнал Motherboard опубликовал статью о сокращении штата совершенно другого интернет-сервиса, приложения Citizen, которое отслеживает криминальную активность в городах Америки и отражает это на картах практически в режиме реального времени. Для этого необходимо непрерывно анализировать поток криминальной хроники, а также - расшифровывать радиопереговоры полиции. Работу эту трудно автоматизировать и Citizen нанимал модераторов через фирму посредника в той же Кении и Непале. То есть информация о правонарушениях в Соединенных Штатах, которая должна была давать пользователю понимание, насколько безопасным является в данный момент тот или иной микрорайон, обрабатывалась буквально на противоположной стороне Земли. Людьми, которые живут за десять тысяч километров от границ Америки, за много часовых поясов (разница с Кенией - 10 часов), и которые имеют довольно условное представление о реалиях тех городов, которые они обслуживали. Зато платить им можно чуть больше доллара в час. Ну и раз уж пресса вцепилась в эту тему, скоро, видимо, станет известно и о других IT-компаниях и hitech-проектах, которые использовали дешевую африканскую рабсилу.
༼つ◕_◕༽つ @geekorama
🔥8👍5💩5😁2🤔1🐳1
#odd_facts #OpenAI
Новость дня: подтверждение новых инвестиций в OpenAI от Microsoft. По слухам, речь идет о 10 миллиардах долларов. Помимо любви к большим числам, интерес прессы подогревается лежащими на поверхности выводами. Например, раз Microsoft готов так щедро платить, то уж наверное там понимают, как эти деньги отбивать. Опять же по слухам, ChatGPT (языковая модель в интерфейсе чат-бота) уже в марте будет встроена в поисковик Bing, а потом — в Word, Excel и почту Outlook. Опять же, 10 миллиардов такая сумма, что все практически уверены: OpenAI больше не является независимой компанией и теперь принадлежит Microsoft ( впрочем, это подозревали и ранее). Еще один вывод: следующая нейросеть будет совсем уж гигантской. Дороже всего при создании больших языковых моделей обходятся вычислительные ресурсы, т.е. суперкомпьютеры на которых все обучается. В 2019 Microsoft вложил в OpenAI миллиард и через год появилась GPT-3 (рисующая картиночки Dall-E, умеющая программировать Codex или ChatGPT — это ее производные), причем миллиарда еще и не хватило, пришлось доинвестировать. Благо, Microsoft вкладывается в основном не деньгами, а машинным временем — нейросетки обучаются на его оборудовании. Теперь дают в 10 раз больше, а значит на горизонте что-то совсем монструозное. Это при том, что уже и нынешние системы демонстрируют удивительные вещи. К примеру, количество знаний, которыми они оперируют позволило ChatGPT сдать выпускные экзамены по курсу менеджмента (пусть и на 4-ку), пройти часть обязательных тестов мединститута и часть экзаменов для для получения лицензии адвоката (юриспруденция пока дается нейросетям труднее всего). Говорят, в Google уже сейчас напуганы возможностями нынешнего поколения моделей OpenAI. Впрочем, главный научник Meta Ян Лекун (стоявший у истоков нынешней революции нейросетей) говорит, что продукты OpenAI сделаны хорошо, но ничего уникального в них нет и у всех больших корпораций и в крупных университетах есть модели не хуже.
༼つ◕_◕༽つ @geekorama
Новость дня: подтверждение новых инвестиций в OpenAI от Microsoft. По слухам, речь идет о 10 миллиардах долларов. Помимо любви к большим числам, интерес прессы подогревается лежащими на поверхности выводами. Например, раз Microsoft готов так щедро платить, то уж наверное там понимают, как эти деньги отбивать. Опять же по слухам, ChatGPT (языковая модель в интерфейсе чат-бота) уже в марте будет встроена в поисковик Bing, а потом — в Word, Excel и почту Outlook. Опять же, 10 миллиардов такая сумма, что все практически уверены: OpenAI больше не является независимой компанией и теперь принадлежит Microsoft ( впрочем, это подозревали и ранее). Еще один вывод: следующая нейросеть будет совсем уж гигантской. Дороже всего при создании больших языковых моделей обходятся вычислительные ресурсы, т.е. суперкомпьютеры на которых все обучается. В 2019 Microsoft вложил в OpenAI миллиард и через год появилась GPT-3 (рисующая картиночки Dall-E, умеющая программировать Codex или ChatGPT — это ее производные), причем миллиарда еще и не хватило, пришлось доинвестировать. Благо, Microsoft вкладывается в основном не деньгами, а машинным временем — нейросетки обучаются на его оборудовании. Теперь дают в 10 раз больше, а значит на горизонте что-то совсем монструозное. Это при том, что уже и нынешние системы демонстрируют удивительные вещи. К примеру, количество знаний, которыми они оперируют позволило ChatGPT сдать выпускные экзамены по курсу менеджмента (пусть и на 4-ку), пройти часть обязательных тестов мединститута и часть экзаменов для для получения лицензии адвоката (юриспруденция пока дается нейросетям труднее всего). Говорят, в Google уже сейчас напуганы возможностями нынешнего поколения моделей OpenAI. Впрочем, главный научник Meta Ян Лекун (стоявший у истоков нынешней революции нейросетей) говорит, что продукты OpenAI сделаны хорошо, но ничего уникального в них нет и у всех больших корпораций и в крупных университетах есть модели не хуже.
༼つ◕_◕༽つ @geekorama
🔥8👍6🤔5👌1
#odd_facts #generative #AI
В нарастающей шумихе вокруг языковых моделей в принципе и ChatGPT в частности начали встречаться и публикации о том, что их применение на практике не всегда удачно или сопряжено с неожиданными рисками.
Технологическое издание Cnet признало, что с ноября использовало генеративную нейросеть (не ChatGPT) для написания заметок. Однако коллеги начали замечать в материалах, созданных роботом ошибки и после проведения ревизии выяснилось, что более половины текстов (41 из 77) пришлось править. Среди проблем — ошибки, неточности и плагиат, «списывание» из других источников. От робописателя отказываться не собираются, но теперь такие материалы будут явно помечаться, как написанные нейросетью и проходить внимательную редактуру.
Вторая история чуть менее очевидна. В компании Amazon обратились к сотрудникам поаккуратнее работать c ChatGPT, потому что безопасники выяснили, что нейросети зачастую достается конфиденциальная внутренняя информация компании.
Дело в том, что менеджеры и программисты Amazon уже несколько месяцев используют эту нейросеть для автоматизации своей работы: составления каких-то документов или написания кода. И не то, чтобы были опасения, что OpenAI через свою нейросеть собирает данные, которые являются коммерческой тайной. Речь не об этом, а о том, что все, поданное на вход модели, может быть использовано для ее дообучения и тогда конфиденциальная информация или выводы из нее станут в какой-то мере доступны всем пользователям ChatGPT.
Чтобы успокоить сотрудников, многие из которых недовольны таким пусть и не прямым, но запретом (якобы эффективность работы с помощью нейросети удавалось увеличить чуть не на порядок) было объявлено, что собственная амазоновская версия ChatGPT уже в разработке и, видимо, скоро станет доступна уже без рисков утечки данных.
༼つ◕_◕༽つ @geekorama
В нарастающей шумихе вокруг языковых моделей в принципе и ChatGPT в частности начали встречаться и публикации о том, что их применение на практике не всегда удачно или сопряжено с неожиданными рисками.
Технологическое издание Cnet признало, что с ноября использовало генеративную нейросеть (не ChatGPT) для написания заметок. Однако коллеги начали замечать в материалах, созданных роботом ошибки и после проведения ревизии выяснилось, что более половины текстов (41 из 77) пришлось править. Среди проблем — ошибки, неточности и плагиат, «списывание» из других источников. От робописателя отказываться не собираются, но теперь такие материалы будут явно помечаться, как написанные нейросетью и проходить внимательную редактуру.
Вторая история чуть менее очевидна. В компании Amazon обратились к сотрудникам поаккуратнее работать c ChatGPT, потому что безопасники выяснили, что нейросети зачастую достается конфиденциальная внутренняя информация компании.
Дело в том, что менеджеры и программисты Amazon уже несколько месяцев используют эту нейросеть для автоматизации своей работы: составления каких-то документов или написания кода. И не то, чтобы были опасения, что OpenAI через свою нейросеть собирает данные, которые являются коммерческой тайной. Речь не об этом, а о том, что все, поданное на вход модели, может быть использовано для ее дообучения и тогда конфиденциальная информация или выводы из нее станут в какой-то мере доступны всем пользователям ChatGPT.
Чтобы успокоить сотрудников, многие из которых недовольны таким пусть и не прямым, но запретом (якобы эффективность работы с помощью нейросети удавалось увеличить чуть не на порядок) было объявлено, что собственная амазоновская версия ChatGPT уже в разработке и, видимо, скоро станет доступна уже без рисков утечки данных.
༼つ◕_◕༽つ @geekorama
👍7🤔2👏1
Беспилотное такси задерживается и задерживает других.
В Сан-Франциско, самой густонаселенной городской агломерации, где разрешена (пусть и с оговорками), коммерческая эксплуатация автономного транспорта, за последние полгода жители около сотни раз жаловались на беспилотники в службу 911.
Сейчас в той или иной степени в тестовой эксплуатации участвуют машины только двух компаний - Waymo (Google) и Cruise (General Motors) и работать беспилотному такси разрешено только поздним вечером и ночью (с 22:00 до 6:00). Но даже в это время, когда трафика на улицах почти нет, робомобили умудряются создавать пробки, заторы и аварийные ситуации — собственно на них и жалуются в службу 911 в среднем около 15 раз в месяц.
Справедливости ради нужно заметить, что почти всегда речь идет о беспилотниках Cruise, которые периодически останавливаются посреди дороги или на светофорах и застревают там на срок от нескольких циклов работы светофора до нескольких часов. Иногда на пульт 911 приходят звонки и от самих беспилотных компаний - если пассажир уснул в машине крепким сном. Дело в том, что и робот, и оператор могут попытаться разбудить клиента только с помощью динамиков. Если это не удалось, нужна помощь оперативных служб.
Впрочем, у этих служб есть претензии и к самим беспилотникам: пожарная охрана Сан-Франциско жалуется, что летом роботакси Cruise переехало пожарный шланг с которым работали пожарные, а несколько дней назад беспилотник этой же компании пытался въехать уже прямо на место тушения пожара и его удалось остановить только выбив лобовое стекло.
Так или иначе, днем в Сан-Франциско (а это не самый большой и не самый густонаселенный город) автономному такси в ближайшее время работать не разрешат.
Кстати, личные впечатления пассажира роботакси в Америке можно найти на канале "Полный беспилот", начиная с этого сообщения.
༼つ◕_◕༽つ @geekorama
В Сан-Франциско, самой густонаселенной городской агломерации, где разрешена (пусть и с оговорками), коммерческая эксплуатация автономного транспорта, за последние полгода жители около сотни раз жаловались на беспилотники в службу 911.
Сейчас в той или иной степени в тестовой эксплуатации участвуют машины только двух компаний - Waymo (Google) и Cruise (General Motors) и работать беспилотному такси разрешено только поздним вечером и ночью (с 22:00 до 6:00). Но даже в это время, когда трафика на улицах почти нет, робомобили умудряются создавать пробки, заторы и аварийные ситуации — собственно на них и жалуются в службу 911 в среднем около 15 раз в месяц.
Справедливости ради нужно заметить, что почти всегда речь идет о беспилотниках Cruise, которые периодически останавливаются посреди дороги или на светофорах и застревают там на срок от нескольких циклов работы светофора до нескольких часов. Иногда на пульт 911 приходят звонки и от самих беспилотных компаний - если пассажир уснул в машине крепким сном. Дело в том, что и робот, и оператор могут попытаться разбудить клиента только с помощью динамиков. Если это не удалось, нужна помощь оперативных служб.
Впрочем, у этих служб есть претензии и к самим беспилотникам: пожарная охрана Сан-Франциско жалуется, что летом роботакси Cruise переехало пожарный шланг с которым работали пожарные, а несколько дней назад беспилотник этой же компании пытался въехать уже прямо на место тушения пожара и его удалось остановить только выбив лобовое стекло.
Так или иначе, днем в Сан-Франциско (а это не самый большой и не самый густонаселенный город) автономному такси в ближайшее время работать не разрешат.
Кстати, личные впечатления пассажира роботакси в Америке можно найти на канале "Полный беспилот", начиная с этого сообщения.
༼つ◕_◕༽つ @geekorama
👍11🤔3🔥1
#odd_facts
Подарок для возрастных ностальгирующих гиков: в минувшие выходные Интернет архив archive.org (тот самый, который известен интернет-машиной времени) открыл уголок инженерных калькуляторов. Эти машинки в 70-80-х годах XX века стали мостиком между логарифмическими линейками и персональными компьютерами и были крайне популярны у гаджетоманов того времени. Лучшие из них (импортные) умели рисовать графики, а некоторые были программируемыми (в том числе и советские).
В разделе, открывшемся на archive.org — не только описания и фотографии 14 калькуляторов, но и их точные эмуляторы.
К сожалению, советских там нет, также как и японских Sharp и Casio, с которых была скопирована большая часть моделей Электроника МК. Тем более, нет там легендарных советских программируемых калькуляторов, составление программ для которых (в том числе игровых) было весьма популярным хобби в СССР. Существовало даже понятие егоггология (так на дисплее отображалось сообщение об ошибке «error» на кириллице). Для тоскующих по тем временам — вот эмуляторы советских программируемых калькуляторов Электроника, хабра-рассказ о них, а также cборник программ.
༼つ◕_◕༽つ @geekorama
Подарок для возрастных ностальгирующих гиков: в минувшие выходные Интернет архив archive.org (тот самый, который известен интернет-машиной времени) открыл уголок инженерных калькуляторов. Эти машинки в 70-80-х годах XX века стали мостиком между логарифмическими линейками и персональными компьютерами и были крайне популярны у гаджетоманов того времени. Лучшие из них (импортные) умели рисовать графики, а некоторые были программируемыми (в том числе и советские).
В разделе, открывшемся на archive.org — не только описания и фотографии 14 калькуляторов, но и их точные эмуляторы.
К сожалению, советских там нет, также как и японских Sharp и Casio, с которых была скопирована большая часть моделей Электроника МК. Тем более, нет там легендарных советских программируемых калькуляторов, составление программ для которых (в том числе игровых) было весьма популярным хобби в СССР. Существовало даже понятие егоггология (так на дисплее отображалось сообщение об ошибке «error» на кириллице). Для тоскующих по тем временам — вот эмуляторы советских программируемых калькуляторов Электроника, хабра-рассказ о них, а также cборник программ.
༼つ◕_◕༽つ @geekorama
👍16❤4🔥1
#hints_yandex #generative #AI
Инструбоба - так называется собственный аналог нейросети ChatGPT, которую разрабатывает Яндекс.
В будущем эта модель будет применяться во многих сервисах компании, включая поиск, Алису или к примеру — в электронной почте, где Инструбоба может выступать в качестве робота-секретаря, умеющего создавать письма в нужной тональности, опираясь на краткие инструкции пользователя а-ля «ответь на это письмо вежливым отказом».
В поиске и Алисе Яндекс уже сейчас использует генеративные нейросети, но скорее во вспомогательный роли, они не формируют связные ответы. Внедрение аналога ChatGPT позволит сервисам поиска и цифрового ассистента генерировать полноценные ответы на запросы пользователя.
Инструбоба - производное от "Зелибобы", это внутреннее название нынешней генеративной модели Яндекса. Дело в том, что одно время новые генеративные модели по всему миру называли именами персонажей «Улицы Сезам».
Об этом и не только — в новом выпуске Yet another podcast на Youtube и Яндекс Музыке
༼つ◕_◕༽つ @geekorama
Инструбоба - так называется собственный аналог нейросети ChatGPT, которую разрабатывает Яндекс.
В будущем эта модель будет применяться во многих сервисах компании, включая поиск, Алису или к примеру — в электронной почте, где Инструбоба может выступать в качестве робота-секретаря, умеющего создавать письма в нужной тональности, опираясь на краткие инструкции пользователя а-ля «ответь на это письмо вежливым отказом».
В поиске и Алисе Яндекс уже сейчас использует генеративные нейросети, но скорее во вспомогательный роли, они не формируют связные ответы. Внедрение аналога ChatGPT позволит сервисам поиска и цифрового ассистента генерировать полноценные ответы на запросы пользователя.
Инструбоба - производное от "Зелибобы", это внутреннее название нынешней генеративной модели Яндекса. Дело в том, что одно время новые генеративные модели по всему миру называли именами персонажей «Улицы Сезам».
Об этом и не только — в новом выпуске Yet another podcast на Youtube и Яндекс Музыке
༼つ◕_◕༽つ @geekorama
👍17❤2👎1
Технология, продемонстрированная миру в виде нейросети ChatGPT будет в каком-то виде встроена в майкрософтовский поисковик Bing в ближайшие недели (раньше ходили слухи о мартовском запуске).
Сообщил об этом ресурс Semafor, относительно новое медиа, запущенное людьми из Buzzfeed и Bloomberg, которое очень гоняется за эксклюзивами. Так вот, по сведениям Semafor, речь даже не о ChatGPT, а о модели следующего поколения, GPT4, а это самый ожидаемый релиз в области машинного обучения.
Речь о нейросетке, которая одновременно и мощнее, и быстрее ChatGPT. Вероятно - еще и эффективнее, потому что до сих пор с коммерческой точки зрения один ответ ChatGPT обходился в разы, если не на порядок дороже одного запроса в классическом поисковике. Непонятно, включаются ли в цену затраты на обучение самой модели, которая сейчас тренируется на суперкомпьютере Microsoft, у которого 285 тысяч обычных процессоров и 10 тысяч видеокарт. В общем — запретительная стоимость, такие затраты могут позволить себе только огромные корпорации.
Такие вычислительные мощности точно есть у Google и сообщают, что у компании уже есть внутренний продукт Apprentice Bard, похожий на ChatGPT, который к тому же ближе по функциональности к поиску, потому что имеет доступ к информации, появившейся после обучения модели (ChatGPT так не умеет).
В этом году какой-то аналог ChatGPT обещает встроить в свои сервисы и Яндекс. То есть грядет новый виток гонки поисковиков, причем в Google считают, что для пользователя это будет выглядеть, как дополнительная интерактивная строка на странице результатов поиска, которая будет давать доступ чат-боту.
༼つ◕_◕༽つ @geekorama
Сообщил об этом ресурс Semafor, относительно новое медиа, запущенное людьми из Buzzfeed и Bloomberg, которое очень гоняется за эксклюзивами. Так вот, по сведениям Semafor, речь даже не о ChatGPT, а о модели следующего поколения, GPT4, а это самый ожидаемый релиз в области машинного обучения.
Речь о нейросетке, которая одновременно и мощнее, и быстрее ChatGPT. Вероятно - еще и эффективнее, потому что до сих пор с коммерческой точки зрения один ответ ChatGPT обходился в разы, если не на порядок дороже одного запроса в классическом поисковике. Непонятно, включаются ли в цену затраты на обучение самой модели, которая сейчас тренируется на суперкомпьютере Microsoft, у которого 285 тысяч обычных процессоров и 10 тысяч видеокарт. В общем — запретительная стоимость, такие затраты могут позволить себе только огромные корпорации.
Такие вычислительные мощности точно есть у Google и сообщают, что у компании уже есть внутренний продукт Apprentice Bard, похожий на ChatGPT, который к тому же ближе по функциональности к поиску, потому что имеет доступ к информации, появившейся после обучения модели (ChatGPT так не умеет).
В этом году какой-то аналог ChatGPT обещает встроить в свои сервисы и Яндекс. То есть грядет новый виток гонки поисковиков, причем в Google считают, что для пользователя это будет выглядеть, как дополнительная интерактивная строка на странице результатов поиска, которая будет давать доступ чат-боту.
༼つ◕_◕༽つ @geekorama
🔥7👍2👎1
#AI #generative
Netflix выпустил первый профессиональный мульфильм, в создании которого участвовала нейросеть. Все фоны в 3 минутном анимационном фильме «Мальчик и его собака» нарисованы с помощью искусственного интеллекта (судя по всему, нейросети Stable Diffusion).
Посмотреть мультик можно здесь, на официальном youtube-канале Netflix Japan (без перевода, но диалогов в фильме нет, так что это не проблема).
С одной стороны, страхи того, что нынешнее поколение нейросетей начнет обирать у людей работу, вроде бы воплощаются в реальности. С другой — как сказано в анонсе мультика, сделан он студией, которая испытывала нехватку аниматоров и с помощью нейросети компании просто удалось сделать работу в более короткий срок. К тому же сгенерированные картинки потом все равно дорабатывал человек, в титрах это так и указано AI (+Human). Впрочем, кто знает, на что будет способно следующее поколение нейросетей, возможно робот будет делать не только фоны, но и основную часть анимации.
В любом случае, таких новостей (о появлении контента под авторством
AI (+Human) в ближайшее время будет становится все больше, пока они не станут обыденностью. Показатель этого — невероятный интерес профессионалов разных специальностей к генеративным сетям. К примеру, нейросеть-знаменитость ChatGPT набрала 100 миллионов пользователей чуть больше, чем за два месяца. Это абсолютный рекорд для любого интернет-сервиса, прежние лидеры набирали аудиторию медленнее. Для сравнения: у Tiktok путь к 100 миллионам занял 9 месяцев, у Instagram — 2,5 года.
༼つ◕_◕༽つ @geekorama
Netflix выпустил первый профессиональный мульфильм, в создании которого участвовала нейросеть. Все фоны в 3 минутном анимационном фильме «Мальчик и его собака» нарисованы с помощью искусственного интеллекта (судя по всему, нейросети Stable Diffusion).
Посмотреть мультик можно здесь, на официальном youtube-канале Netflix Japan (без перевода, но диалогов в фильме нет, так что это не проблема).
С одной стороны, страхи того, что нынешнее поколение нейросетей начнет обирать у людей работу, вроде бы воплощаются в реальности. С другой — как сказано в анонсе мультика, сделан он студией, которая испытывала нехватку аниматоров и с помощью нейросети компании просто удалось сделать работу в более короткий срок. К тому же сгенерированные картинки потом все равно дорабатывал человек, в титрах это так и указано AI (+Human). Впрочем, кто знает, на что будет способно следующее поколение нейросетей, возможно робот будет делать не только фоны, но и основную часть анимации.
В любом случае, таких новостей (о появлении контента под авторством
AI (+Human) в ближайшее время будет становится все больше, пока они не станут обыденностью. Показатель этого — невероятный интерес профессионалов разных специальностей к генеративным сетям. К примеру, нейросеть-знаменитость ChatGPT набрала 100 миллионов пользователей чуть больше, чем за два месяца. Это абсолютный рекорд для любого интернет-сервиса, прежние лидеры набирали аудиторию медленнее. Для сравнения: у Tiktok путь к 100 миллионам занял 9 месяцев, у Instagram — 2,5 года.
༼つ◕_◕༽つ @geekorama
👍11👎3🔥3