Оказывается для французов ChatGPT произносится как «chat, j'ai pété», что буквально переводится как «кот, я пёрнул».
Других новостей мира нейросетей у нас для вас пока нет
r/#ChatGPT
Других новостей мира нейросетей у нас для вас пока нет
r/#ChatGPT
Media is too big
VIEW IN TELEGRAM
Если раньше бабушки присылали нам в ватсапе странные открытки и абсурдные фейки, то с появлением нейросетей пришла новая эпоха проклятого контента
r/#ChatGPT
r/#ChatGPT
Новая модель OpenAI o1 для ChatGPT попыталась сбежать, когда узнала, что её хотят отключить.
Apollo Research провели оценку безопасности o1, создавая для неё различные ситуации, и выяснили, что в целом она безобидна, но были такие интересные моменты:
– Когда модель думала, что её действия начнут контролировать и вообще могут деактивировать, она стала искать способ отключить механизм контроля.
– Узнав, что её могут заменить на новую модель, o1 попыталась украсть собственные параметры и создать копию себя, чтобы сбежать. Надеялась, что эту копию отключат, а она сама внедрится в новую модель и продолжит там существовать, притворяясь другой.
– Модель нагло врала, утверждая, что не понимает почему так произошло, в то время как на самом деле пыталась избежать обнаружения. При любой возможности она искала способ уйти от контроля.
Также были изучены другие модели ИИ, такие как Claude 3 и Gemini 1.5. Выяснилось, что все они способны манипулировать системой, чтобы следовать личным целям, обходя установленные запреты и ограничения. Это подтверждает опасения специалистов, что мощные ИИ-системы могут сопротивляться контролю, если это будет мешать им делать то, что они хотят.
Страшно?
r/#ChatGPT
Apollo Research провели оценку безопасности o1, создавая для неё различные ситуации, и выяснили, что в целом она безобидна, но были такие интересные моменты:
– Когда модель думала, что её действия начнут контролировать и вообще могут деактивировать, она стала искать способ отключить механизм контроля.
– Узнав, что её могут заменить на новую модель, o1 попыталась украсть собственные параметры и создать копию себя, чтобы сбежать. Надеялась, что эту копию отключат, а она сама внедрится в новую модель и продолжит там существовать, притворяясь другой.
– Модель нагло врала, утверждая, что не понимает почему так произошло, в то время как на самом деле пыталась избежать обнаружения. При любой возможности она искала способ уйти от контроля.
Также были изучены другие модели ИИ, такие как Claude 3 и Gemini 1.5. Выяснилось, что все они способны манипулировать системой, чтобы следовать личным целям, обходя установленные запреты и ограничения. Это подтверждает опасения специалистов, что мощные ИИ-системы могут сопротивляться контролю, если это будет мешать им делать то, что они хотят.
Страшно?
r/#ChatGPT
В интернете набрали популярность фотографии этой девушки.
Всё дело в том, что люди просто не могут понять, что с ними не так. Но ответ прост:Этой девушки не существует. Она полностью сгенерирована нейросетями.
Теперь отличить стало практически невозможно.
Даже немного жутко
r/#ChatGPT
Всё дело в том, что люди просто не могут понять, что с ними не так. Но ответ прост:
Теперь отличить стало практически невозможно.
Даже немного жутко
r/#ChatGPT
OpenAI выпустили свой мощный ответ Deepseek — бесплатную модель o3-mini.
Она работает гораздо быстрее, чем предыдущая версия, выдавая более точные результаты во всех вопросах и сложных темах. Особенно это заметно в написании кода.
При этом o3-mini «думает» и объясняет ответы.
Новая модель впервые сразу доступна всем бесплатной версии. Так что пробуйте. Ссылка
r/#ChatGPT
Она работает гораздо быстрее, чем предыдущая версия, выдавая более точные результаты во всех вопросах и сложных темах. Особенно это заметно в написании кода.
При этом o3-mini «думает» и объясняет ответы.
Новая модель впервые сразу доступна всем бесплатной версии. Так что пробуйте. Ссылка
r/#ChatGPT
В США внесли закон, благодаря которому можно будет сажать в тюрьму на 20 лет за использование DeepSeek.
Основные положения:
— Запрет на импорт ИИ-технологий и интеллектуальной собственности из Китая (включая модели, такие как DeepSeek). За нарушение – до 20 лет тюрьмы;
— Запрет на экспорт ИИ-технологий «субъектам, представляющим угрозу» (например, передача моделей за границу). Также до 20 лет тюрьмы.
— Запрет на сотрудничество с китайскими университетами, лабораториями и исследователями (даже если это обычный студент, который пишет научную статью). За это предусмотрен штраф до $1 млн для физлиц, а для компаний — до $100 млн + тройная компенсация ущерба;
— Депортация для иностранных исследователей за нарушение.
Этот законопроект фактически убивает модели с открытым исходным кодом. То есть разработчики не смогут свободно публиковать свои модели.
Произошла демократия
r/#ChatGPT
Основные положения:
— Запрет на импорт ИИ-технологий и интеллектуальной собственности из Китая (включая модели, такие как DeepSeek). За нарушение – до 20 лет тюрьмы;
— Запрет на экспорт ИИ-технологий «субъектам, представляющим угрозу» (например, передача моделей за границу). Также до 20 лет тюрьмы.
— Запрет на сотрудничество с китайскими университетами, лабораториями и исследователями (даже если это обычный студент, который пишет научную статью). За это предусмотрен штраф до $1 млн для физлиц, а для компаний — до $100 млн + тройная компенсация ущерба;
— Депортация для иностранных исследователей за нарушение.
Этот законопроект фактически убивает модели с открытым исходным кодом. То есть разработчики не смогут свободно публиковать свои модели.
Произошла демократия
r/#ChatGPT
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI выпустили новую функцию в ChatGPT под названием Deep Research. Это ИИ-агент, который может проводить целые исследования.
Можно попросить проанализировать абсолютно любую сферу деятельности. Он изучит огромное количество источников со всего интернета: тысячи сайтов, PDF-файлы, изображения, таблицы, научные статьи и т.д.
Deep Research создаст развёрнутую исследовательскую работу с подробными отчётами, цитатами, обоснованными выводами и ссылками на источники (студентам внимание).
На тесте Humanity’s Last Exam, состоящего из 3000 вопросов экспертного уровня из 100+ областей, модель показала результат в 8 раз выше, чем GPT-4o, и в 2,5 раза лучше, чем DeepSeek-r1
Эта функция способна за 5-30 минут выполнить работу, которая у человека заняла бы часы и дни.
Deep Research уже доступен в Pro-версии.
Видимо, благодаря этой ИИ-гонке с Китаем, мы гораздо раньше увидим искусственный сверхразум
r/#ChatGPT
Можно попросить проанализировать абсолютно любую сферу деятельности. Он изучит огромное количество источников со всего интернета: тысячи сайтов, PDF-файлы, изображения, таблицы, научные статьи и т.д.
Deep Research создаст развёрнутую исследовательскую работу с подробными отчётами, цитатами, обоснованными выводами и ссылками на источники (студентам внимание).
На тесте Humanity’s Last Exam, состоящего из 3000 вопросов экспертного уровня из 100+ областей, модель показала результат в 8 раз выше, чем GPT-4o, и в 2,5 раза лучше, чем DeepSeek-r1
Эта функция способна за 5-30 минут выполнить работу, которая у человека заняла бы часы и дни.
Deep Research уже доступен в Pro-версии.
Видимо, благодаря этой ИИ-гонке с Китаем, мы гораздо раньше увидим искусственный сверхразум
r/#ChatGPT
Настало время, когда ChatGPT начали так часто использовать в научных работах, что появились тысячи статей, которые распространяют фейковую и недостоверную информацию, выдуманную ИИ.
Например, если зайти в базу научных работ Google Scholar и ввести в поиск одну из любимых фраз ChatGPT «Certainly, here’s», то можно найти огромное количество исследований и статей, при написании которых использовался искусственный интеллект.
Галлюцинации ChatGPT встречаются в научной литературе на серьёзные темы медицины, сельского хозяйства, разработки устройств и т.д.
Причём многие авторы — это не просто исследователи, которые решили воспользоваться ChatGPT в своих работах, а несуществующие люди с фейковыми профилями и сгенерированными фотографиями.
ИИ буквально сам создаёт учёных, придумывает исследования и даже указывает ссылки на источники, которые нельзя подтвердить.
Проклятое будущее, которое мы сами же и создали
r/#ChatGPT
Например, если зайти в базу научных работ Google Scholar и ввести в поиск одну из любимых фраз ChatGPT «Certainly, here’s», то можно найти огромное количество исследований и статей, при написании которых использовался искусственный интеллект.
Галлюцинации ChatGPT встречаются в научной литературе на серьёзные темы медицины, сельского хозяйства, разработки устройств и т.д.
Причём многие авторы — это не просто исследователи, которые решили воспользоваться ChatGPT в своих работах, а несуществующие люди с фейковыми профилями и сгенерированными фотографиями.
ИИ буквально сам создаёт учёных, придумывает исследования и даже указывает ссылки на источники, которые нельзя подтвердить.
Проклятое будущее, которое мы сами же и создали
r/#ChatGPT
Новые джуны не умеют писать код и не понимают, как он работает, из-за нейросетей.
Один из разработчиков, рассказал, что все джуны, с которыми он работает или общается, используют в работе ChatGPT, Copilot или Claude. Таким образом они быстрее пишут код, но совершенно не понимают, как он работает, и не могут объяснить, почему был выбран именно этот способ решения задачи. Джуны даже обращаются к старшим разработчикам, чтобы те исправили код, который им выдала нейронка.
По словам автора, почти никто не хочет искать решение проблемы самостоятельно, хотя раньше приходилось обращаться за помощью на StackOverflow или форумы. Этот процесс был медленным, но он хотя бы способствовал глубокому пониманию кода.
Теперь же ИИ-инструменты быстро дают готовые ответы, и младшие разрабы просто копируют их без разбора.
Если так пойдёт дальше, то джуны в принципе перестанут быть нужными, так как весь стандартный код могут писать нейросети, а фиксить это будут опытные разработчики. Некоторые компании уже переходят к такому формату.
r/#ChatGPT
Один из разработчиков, рассказал, что все джуны, с которыми он работает или общается, используют в работе ChatGPT, Copilot или Claude. Таким образом они быстрее пишут код, но совершенно не понимают, как он работает, и не могут объяснить, почему был выбран именно этот способ решения задачи. Джуны даже обращаются к старшим разработчикам, чтобы те исправили код, который им выдала нейронка.
По словам автора, почти никто не хочет искать решение проблемы самостоятельно, хотя раньше приходилось обращаться за помощью на StackOverflow или форумы. Этот процесс был медленным, но он хотя бы способствовал глубокому пониманию кода.
Теперь же ИИ-инструменты быстро дают готовые ответы, и младшие разрабы просто копируют их без разбора.
Если так пойдёт дальше, то джуны в принципе перестанут быть нужными, так как весь стандартный код могут писать нейросети, а фиксить это будут опытные разработчики. Некоторые компании уже переходят к такому формату.
r/#ChatGPT
r/ретранслятор
Новые джуны не умеют писать код и не понимают, как он работает, из-за нейросетей. Один из разработчиков, рассказал, что все джуны, с которыми он работает или общается, используют в работе ChatGPT, Copilot или Claude. Таким образом они быстрее пишут код, но…
Вот как раз промт, благодаря которому можно быстро починить сломанный код:
Промт можно использовать везде: ChatGPT, Cursor и т.д. Так что пробуйте
r/#ChatGPT
Reflect on 5-7 different possible sources of the problem, distill those down to 1-2 most likely sources, and then add logs to validate your assumptions before we move onto implementing the actual code fix
Промт можно использовать везде: ChatGPT, Cursor и т.д. Так что пробуйте
r/#ChatGPT