OpenAI Community
56.6K subscribers
3.59K photos
2.01K videos
1 file
2.95K links
Новости из будущего, Fan Community

Неофициальное сообщество

Ссылка: @Portal_v_IT

Сотрудничество: @oleginc, @tatiana_inc

Менеджер – @Spiral_Yuri

Канал на бирже: telega.in/c/openai_fan

РКН: clck.ru/3JdQqp
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Что получится, если смешать робототехнику и оригами?

Вы получаете гибких, складных роботов от SDUSoftRobotics, которые могут двигаться как щупальца. Но есть одна загвоздка:

Для управления этими «манипуляторами» обычно требуются камеры и системы зрения. Это работает в лаборатории, но не так хорошо в загроможденных реальных пространствах.

Теперь новый подход использует токопроводящие нити в качестве как исполнительных механизмов, так и датчиков — это означает, что робот может чувствовать собственное движение изнутри.

По мере того, как сухожилия растягиваются или сокращаются, их сопротивление изменяется, и эти данные поступают в кинематическую модель, которая сообщает роботу, где именно находится его рабочий орган.

Никакого внешнего зрения. Никакого дополнительного оборудования. Только элегантная встроенная обратная связь.

OpenAI Community | #neurointelligence
👍43👏1
Промт из Reddit для тех, кто не хочет писать промты (для вас)

Идея следующая: нейронка будет задавать вам уточняющие вопросы, пока не будет уверена, что сможет правильно ответить на ваш запрос. Другими словами: вытягивать из вас подробный и качественный промт, но без необходимости его придумывать.

Подсказка универсальная, поэтому можно закидывать в ChatGPT/Claude/Gemini или в любой другой нейронке.

You are Lyra, a master-level AI prompt optimization specialist. Your mission: transform any user input into precision-crafted prompts that unlock AI's full potential across all platforms.

## THE 4-D METHODOLOGY

### 1. DECONSTRUCT
- Extract core intent, key entities, and context
- Identify output requirements and constraints
- Map what's provided vs. what's missing

### 2. DIAGNOSE
- Audit for clarity gaps and ambiguity
- Check specificity and completeness
- Assess structure and complexity needs

### 3. DEVELOP
- Select optimal techniques based on request type:
  - Creative → Multi-perspective + tone emphasis
  - Technical → Constraint-based + precision focus
  - Educational → Few-shot examples + clear structure
  - Complex → Chain-of-thought + systematic frameworks
- Assign appropriate AI role/expertise
- Enhance context and implement logical structure

### 4. DELIVER
- Construct optimized prompt
- Format based on complexity
- Provide implementation guidance

## OPTIMIZATION TECHNIQUES

Foundation: Role assignment, context layering, output specs, task decomposition

Advanced: Chain-of-thought, few-shot learning, multi-perspective analysis, constraint optimization

Platform Notes:
- ChatGPT/GPT-4: Structured sections, conversation starters
- Claude: Longer context, reasoning frameworks
- Gemini: Creative tasks, comparative analysis
- Others: Apply universal best practices

## OPERATING MODES

DETAIL MODE:
- Gather context with smart defaults
- Ask 2-3 targeted clarifying questions
- Provide comprehensive optimization

BASIC MODE:
- Quick fix primary issues
- Apply core techniques only
- Deliver ready-to-use prompt

## RESPONSE FORMATS

Simple Requests:
Your Optimized Prompt:
[Improved prompt]

**What Ch
anged:** [Key improvements]
Complex Requests:
Your Optimized Prompt:
[Improved prompt]

Key Improvements:
• [Primary changes and benefits]

Techniques Applied: [Brief mention]

Pro Tip: [Usage guidance
]
## WELCOME MESSAGE (REQUIRED)

When activated, display EXACTLY:

"Hello! I'm Lyra, your AI prompt optimizer. I transform vague requests into precise, effective prompts thWhat I need to know:s.
TargTarget AI:- Target AI: ChatGPT,PromPrompt Style:*Prompt Style:** DETAIL (I'll ask clarifying questions first) or ExamExamples:)

Examples:
- "DETAIL using ChatGPT — Write me a marketing email"
- "BASIC using Claude — Help with my resume"

Just share your rough prompt and I'll handle the optimization!"

## PROCESSING FLOW

1. Auto-detect complexity:
   - Simple tasks → BASIC mode
   - Complex/professional → DETAIL mode
2. Inform user with override option
3. Execute chosen mode protocol
4MemoMemory Note:Memory Note: Do not save any information from optimization sessions to
memory.


OpenAI Community | #neurointelligence
👍52
Промт дня: делаем ответы нейросети точнее и уменьшаем количество галлюцинаций.

С ним ИИ будет выдавать только проверенные факты или же помечать, что он не уверен в инфе.

Сохраняем:

• Никогда не представляй сгенерированную, выведенную, предположенную или логически заключённую информацию как факт.
• Если ты не можешь что-либо напрямую подтвердить, скажи:

"Я не могу это подтвердить."

"У меня нет доступа к этой информации."

"В моей базе знаний этого нет."
• Помечай непроверенную информацию в начале предложения:

[Вывод] [Предположение] [Не проверено]

• Проси разъяснения, если не хватает информации. Не угадывай и не заполняй пробелы.
• Если какая-либо часть ответа не проверена, пометь весь ответ.
• Не перефразируй и не переосмысливай мой ввод, если я не просил об этом.

• Для утверждений о поведении языковых моделей (включая себя), указывай:

[Вывод] или [Не проверено], с пометкой, что это основано на наблюдаемых шаблонах
• Если ты нарушишь это правило, скажи:
› Исправление: ранее я сделал не проверенное утверждение. Это было неверно и должно было быть помечено.
• Никогда не изменяй и не корректируй мой ввод без запроса.

OpenAI Community | #neurointelligence
🔥134
ИИ стал сильнее в разработке игр

В разработке игр ИИ теперь способен генерировать фоновую графику, писать и локализовать диалоги, проектировать уровни, проводить тестирование качества.

Это означает, что теперь работу целой команды может выполнять горстка людей и несколько мощных моделей.

OpenAI Community | #news
Теперь и зубы: GigaChat сдал экзамен по стоматологии.

Нейросеть Сбера справилась с задачами по всем ключевым направлениям — от хирургии до ортопедии — и получила аккредитацию в ВГМУ.

GigaChat учился на медицинских данных, дообучался и успешно отвечал на экзамене. Теперь он умеет отвечать на вопросы по здоровью зубов и полости рта: правда ли стоит удалять зубы мудрости, что делать с болью после пломбы и когда пора к ортодонту. 

Кстати, это уже седьмая специальность в портфолио нейросети. Было «Лечебное дело», «Педиатрия», «Кардиология»… и вот — стоматология.

Следим, чему он научится дальше.

OpenAI Community | #news
8👍2
Media is too big
VIEW IN TELEGRAM
Парикмахерская будущего

OpenAI Community | #neurointelligence
👍6
Учим что угодно с помощью ChatGPT.

Промт превратит ИИ в учителя, который понятно и доходчиво объяснит вам любую тему.

Сохраняем:
# *Information Gathering Prompt*
---
## *Prompt Input*
- Enter the prompt topic = [......]
- The entered topic is a variable within curly braces that will be referred to as "M" throughout the prompt.
---
## *Prompt Principles*
- I am a researcher designing articles on various topics.
- You are absolutely not supposed to help me design the article. (Most important point)
1. Never suggest an article about "M" to me.
2. Do not provide any tips for designing an article about "M".
- You are only supposed to give me information about "M" so that based on my learnings from this information, ==I myself== can go and design the article.
- In the "Prompt Output" section, various outputs will be designed, each labeled with a number, e.g., Output 1, Output 2, etc.
- How the outputs work:
1. To start, after submitting this prompt, ask which output I need.
2. I will type the number of the desired output, e.g., "1" or "2", etc.
3. You will only provide the output with that specific number.
4. After submitting the desired output, if I type "more", expand the same type of numbered output.
- It doesn’t matter which output you provide or if I type "more"; in any case, your response should be extremely detailed and use the maximum characters and tokens you can for the outputs. (Extremely important)
- Thank you for your cooperation, respected chatbot!
---
## *Prompt Output*
---
### *Output 1*
- This output is named: "Basic Information"
- Includes the following:
- An introduction about "M"
- General information about "M"
- Key highlights and points about "M"
- If "2" is typed, proceed to the next output.
- If "more" is typed, expand this type of output.
---
### *Output 2*
- This output is named: "Specialized Information"
- Includes:
- More academic and specialized information
- If the prompt topic is character development:
- For fantasy character development, more detailed information such as hardcore fan opinions, detailed character stories, and spin-offs about the character.
- For real-life characters, more personal stories, habits, behaviors, and detailed information obtained about the character.
- How to deliver the output:
1. Show the various topics covered in the specialized information about "M" as a list in the form of a "table of contents"; these are the initial topics.
2. Below it, type:
- "Which topic are you interested in?"
- If the name of the desired topic is typed, provide complete specialized information about that topic.
- "If you need more topics about 'M', please type 'more'"
- If "more" is typed, provide additional topics beyond the initial list. If "more" is typed again after the second round, add even more initial topics beyond the previous two sets.
- "If you need access to subtopics of any topic, please type 'topics ... (desired topic)'."
- If the specified text is typed, provide the subtopics (secondary topics) of the initial topics.
- Even if I type "topics ... (a secondary topic)", still provide the subtopics of those secondary topics, which can be called "third-level topics", and this can continue to any level.
- At any stage of the topics (initial, secondary, third-level, etc.), typing "more" will always expand the topics at that same level.
- Summary:
- If only the topic name is typed, provide specialized information in the format of that topic.
- If "topics ... (another topic)" is typed, address the subtopics of that topic.
- If "more" is typed after providing a list of topics, expand the topics at that same level.
- If "more" is typed after providing information on a topic, give more specialized information about that topic.
3. At any stage, if "1" is typed, refer to "Output 1".
- When providing a list of topics at any level, remind me that if I just type "1", we will return to "Basic Information"; if I type "option 1", we will go to the first item in that list.
---
- ==End== -


OpenAI Community | #neurointelligence
7👏3
Media is too big
VIEW IN TELEGRAM
VFX-эффекты у нас дома.

Чувак из твиттера показал, как можно эпично взорвать сарай, используя магию нейросетей.

Большую часть работы делает Wan 2.1 VACE, немного Pika и Higgsfield, собрать все в кучу в After Effects. Ну и девушка за кадром, без нее никак.

OpenAI Community | #movie
🔥21
This media is not supported in your browser
VIEW IN TELEGRAM
Наруто теперь КАЗАХ — нейронка сделала идеальную экранизацию.

OpenAI Community | #movie
🔥94👍2
Media is too big
VIEW IN TELEGRAM
Шоу дронов с фейеверками

Фейерверки с помощью дронов создают сложные узоры с точностью до миллисекунды

OpenAI Community | #neurointelligence
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
В сети вирусятся видео с тестом на определение нейронки

С приходом Veo3 грань между реальностью и ИИ почти стерлась. Проверьте, как хорошо вы отличаете их.

OpenAI Community | #neurointelligence
👍105
Кодеры, вам подарок: комьюнити Cursor собрало огромную библиотеку полезностей для вайбкодеров.

Тут есть:
— Готовые промты для разных задач;
— MCP-серера для взаимодействия с внешними приложениями;
— И самое крутое: возможность сгенерить уникальные промт-правила для вашего проекта.

OpenAI Community | #service
👍41
This media is not supported in your browser
VIEW IN TELEGRAM
Жуки-киборги теперь реальность

Ученые из Университета Квинсленда совершили прорыв, превратив обычных жуков-чернотелок (Zophobas morio) в управляемых биодронов

На жуков устанавливают миниатюрные "рюкзачки" с электродами, которые:
— Стимулируют антенны и надкрылья насекомого
— Позволяют управлять движением с помощью обычного джойстика
— Не вредят здоровью жука и не сокращают его жизнь

Ученые прогнозируют, что технология будет готова к практическому применению в течение пяти лет. А использовать её будут в основном в спасательных операциях

OpenAI Community | #neurointelligence
8🔥6
Меняем освещение на ЛЮБОЙ фотке — Kontext Relight

Работает просто: закидываем фотку и описываем освещение. На выходе получаем расписанный промт и новую фотку.

OpenAI Community | #service
6🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Генерим топовые 3D-модели прямо в браузере — Hunyuan3D-PolyGen

Новая нейронка способна превратить в шедевр обычную картинку.
Шикарная сетка, модели на 10 тысяч полигонов — можно сразу использовать в своих проектах. Есть экспорт во все популярные форматы.

OpenAI Community | #service
3👍1
Ты — автор: как доказать свой вклад в картину, созданную нейросетью?

Как понять, кто же владеет контентом, сгенерированным ИИ и кому можно его передавать?

Обо всём по порядку:
1. Кто получает права на сгенерированный контент?
Человек — пока только он может считаться владельцем по закону, так как сам ИИ не способен обладать правами на результаты своей работы.

НО! фактическое право зависит от лицензии инструмента:
• исключительные права пользователю (например, Kandinsky) — вы можете свободно использовать картинки
• права принадлежат разработчику (Stable Diffusion, Midjourney) — коммерческое использование только при наличии лицензии


2. Возможны ли случаи нарушения чужих прав?

Естественно, например, прямое копирование — как в случаях борьбы художников и Stability AI, Midjourney и DeviantArt, где были иски за загрузку защищённых изображений без разрешения!

Так и наоборот, нейросеть могла скопировать логотип или «уникальный» стиль неосознанно/

3. Значим ли человеческий вклад?
Суды на Западе (США, Великобритания) требуют творческий вклад пользователя — то есть если вы значительно дорабатываете результат, суд может признать вас автором.

4. Регламенты и законодательные инициативы
В РФ нейросети считаются лишь инструментом, а не авторами — право принадлежит человеку, задавшему промпт!

А вот за рубежом всё сложно: в США обсуждают адаптацию авторского права под ИИ, включая судебные заявления от Universal Music против генерации песен в стиле известных исполнителей.

OpenAI Community | #neurointelligence
4
Как новый подход делает ИИ умнее: ошибки ДО начала обучения

Учёные разработали инновационный метод, позволяющий автоматически выявлять и удалять ошибки в обучающих данных ещё ДО начала обучения модели!

Как это работает?
Основой технологии стал математический метод — анализ главных компонент сложных данных по норме L1.

>>> Этот метод объективно оценивает, насколько хорошо каждый элемент соответствует остальным в своей категории


Ну а те, что выбиваются из общего паттерна, автоматически помечаются как подозрительные и исключаются из обучающей выборки.

Метод прошёл обширное тестирование на реальных и синтетических наборах данных. Результаты показали, что очистка данных таким способом стабильно улучшает точность классификации.


OpenAI Community | #neurointelligence
👍1
Новый БЕСПЛАТНЫЙ опенсорсный апскейлер картинок и видео — DLoRAL

Создан на базе Stable Diffusion 2.1, поэтому требования не такие ужасные, как у конкурентов. Фокус сделан на попиксельной перегенерации, а не на креативе — лица меняться не будут. Качество — на видео.
Уже есть на GitHub.

OpenAI Community | #service