مقایسه خروجی با IBM Granite
برای روشنتر شدن موضوع، IBM با مدل Granite 3.1 یک مثال زده. پرامپت این بود:
«یک داستان بنویس درباره دانشمند دادهای که عاشق پایتون است.»
🔅 وقتی دما روی مقدار خیلی پایین (۰.۱) تنظیم شد، خروجی کاملاً امن و قابل پیشبینی بود؛ متن خشک بود و جزئیات زیادی نداشت.
وقتی دما روی متوسط (۰.۷۵) قرار گرفت، داستان زندهتر شد؛ توصیفها بیشتر شدن و کمی خلاقیت به متن اضافه شد.
📈اما وقتی دما روی بالا (۱.۲۵) رفت، متن پر از ایدههای غیرمنتظره شد؛ داستان تخیلیتر بود و گاهی از موضوع اصلی منحرف میشد.
🦴 @scopeofai | #concepts
برای روشنتر شدن موضوع، IBM با مدل Granite 3.1 یک مثال زده. پرامپت این بود:
«یک داستان بنویس درباره دانشمند دادهای که عاشق پایتون است.»
🔅 وقتی دما روی مقدار خیلی پایین (۰.۱) تنظیم شد، خروجی کاملاً امن و قابل پیشبینی بود؛ متن خشک بود و جزئیات زیادی نداشت.
وقتی دما روی متوسط (۰.۷۵) قرار گرفت، داستان زندهتر شد؛ توصیفها بیشتر شدن و کمی خلاقیت به متن اضافه شد.
📈اما وقتی دما روی بالا (۱.۲۵) رفت، متن پر از ایدههای غیرمنتظره شد؛ داستان تخیلیتر بود و گاهی از موضوع اصلی منحرف میشد.
Comparing Outputs with IBM Granite
To make this clearer, IBM tested its Granite 3.1 model with a simple prompt:
“Write a story about a data scientist who loves Python.”
At a very low temperature (0.1), the output was extremely safe and predictable. The story was dry, with little detail.
At a medium temperature (0.75), the story became richer. There were more vivid descriptions and a touch of creativity.
At a high temperature (1.25), the text was full of unexpected ideas. It felt more imaginative, but sometimes drifted away from the main topic
🦴 @scopeofai | #concepts
👌1
کی از چه دمایی استفاده کنیم
💡کار دقیق و فکتمحور (گزارش، خلاصه، متن رسمی): دمای پایین (0.1–0.4)
📝کار خلاقانه (شعر، داستان، ایدهپردازی): دمای بالا (0.7–1.2)
همیشه در کنارش از حداکثر طول، Stop sequence و Penaltyها استفاده کن تا متن عجیبغریب نشه
بهترین نتیجه معمولاً از آزمایش و تعادل بین این عوامل بهدست میاد
🦴 @scopeofai | #concepts
💡کار دقیق و فکتمحور (گزارش، خلاصه، متن رسمی): دمای پایین (0.1–0.4)
📝کار خلاقانه (شعر، داستان، ایدهپردازی): دمای بالا (0.7–1.2)
همیشه در کنارش از حداکثر طول، Stop sequence و Penaltyها استفاده کن تا متن عجیبغریب نشه
بهترین نتیجه معمولاً از آزمایش و تعادل بین این عوامل بهدست میاد
When to Use What
To wrap up, here are guidelines for what temperature + settings you might choose depending on your purpose:
For factual, precise work (e.g. reports, summaries, technical writing): use low temperature (0.1-0.4), minimal top_k or top_p, lower randomness.
For creative work (stories, brainstorming, poetry): use higher temperature (0.7-1.2+), allow more sampling, allow higher top_k / top_p.
Always combine with stop sequences, max length, and penalties to avoid repetition or straying.
Experiment: sometimes a moderate temperature + restrictions gives a sweet balance.
🦴 @scopeofai | #concepts
👌1
🌿 یه لغتنامه جذاب و جمعوجور هوش مصنوعی مولد که بعضی از اصطلاحات پایه رو با معنی براتون آورده:
https://mitsloanedtech.mit.edu/ai/basics/glossary/#Parameters
https://mitsloanedtech.mit.edu/ai/basics/glossary/#Parameters
MIT Sloan Teaching & Learning Technologies
Glossary of Terms: Generative AI Basics - MIT Sloan Teaching & Learning Technologies
Learn key AI terms. This glossary defines and explains important concepts like generative AI, large language model, natural language processing, and more.
🔥2
ولی دونستن این مفاهیم بدون زدن پروژه های واقعی بیفایدست. تمرکزم اینه که به زودی متمرکزتر بشیم روی تفسیر این مفاهیم روی پروژه و دیتاستهای واقعی
🫡2🥱1