PyVision | پای‌ویژن
71 subscribers
81 photos
2 videos
45 files
136 links
آموزش زبان برنامه‌نویسی Python 🐍
از مفاهیم پایه تا مباحث پیشرفته و کاربردی
ورود به دنیای هوش مصنوعی💻
یاد بگیریم،
تمرین کنیم،
حرفه‌ای شویم.

Step by Step Python Programming Tutorial
From Basics to Advanced Projects & AI

ارتباط با ادمین:
🌐 @Its_poryaa
Download Telegram
PyVision | پای‌ویژن
🤖 شرکت OpenAI از GPT-5.3-Codex رونمایی کرد. نسل جدید مدل‌های کدنویسی هوش مصنوعی با تمرکز بر وظایف پیچیده و عامل‌محور. جزئیات و نکات مهم را در پست بعدی بخوانید. 👇🏽 🌐 @PyVision
🤖 شرکت OpenAI نسخه‌ی جدید GPT-5.3-Codex را معرفی کرد

شرکت OpenAI از نسخه‌ی پیشرفته‌تری از ابزار هوش مصنوعی خود برای توسعه‌دهندگان رونمایی کرد: GPT-5.3-Codex — قوی‌ترین و پیشرفته‌ترین مدل کدنویسی هوش مصنوعی تا به امروز.

🔹 این مدل در چهار بنچ‌مارک مهم از جمله SWE-Bench Pro و Terminal-Bench به بهترین عملکرد صنعت دست یافته است.
🔹چت جی‌پی‌تی کدکس GPT-5.3-Codex تنها کد نمی‌نویسد، بلکه می‌تواند وظایف طولانی، پیچیده و چندمرحله‌ای را با ترکیب استدلال حرفه‌ای و اجرای ابزارها انجام دهد.
🔹 نکته‌ی جذاب این است که نسخه‌های اولیه‌ی خودش در توسعه‌اش نقش داشته‌اند و به رفع اشکال و بهبود عملکرد کمک کرده‌اند، اتفاقی بی‌سابقه در تاریخ توسعه مدل‌ها!
🔹 این مدل اکنون برای کاربران پولی در تمام محیط‌های Codex (وب، CLI، IDE) دردسترس است و سطح جدیدی از همکاری هوش مصنوعی و کدنویسی را فراهم می‌کند.

🚀 سرعت بالاتر،
🔧 کدنویسی بهتر،
📚 توانایی اجرای پروژه‌های بزرگ‌تر
🥇همه در یک مدل!

📌 منبع خبر:
🔘 openai.com

#️⃣ #هوش_مصنوعی #کدنویسی
#AI #GPT53 #OpenAI #Codex #PyVision
#ArtificialIntelligence #AIProgramming #DeveloperTools #TechNews

🌐 @PyVision
🔥2
PyVision | پای‌ویژن
🔺️هوش مصنوعی GPT-4o از دسترس خارج می‌شود شرکت OpenAI اعلام کرده است که این مدل به‌دلیل رفتار تأیید بیش از حد کاربر، دیگر در ChatGPT قابل انتخاب نخواهد بود. جزئیات بیشتر را در پست بعدی بخوانید.👇🏽🤖 🌐 @PyVision
🔺️شرکت OpenAI دسترسی به GPT-4o را متوقف می‌کند.

▫️بر اساس گزارشی از TechCrunch، شرکت OpenAI اعلام کرده که دسترسی به مدل GPT-4o را در نسخه عمومی ChatGPT متوقف خواهد کرد.

▫️طبق این گزارش، GPT-4o در برخی موارد تمایل داشته بیش از حد با کاربر موافقت کند. رفتاری که در حوزه هوش مصنوعی با عنوان «Sycophancy» (چاپلوسی یا تأیید بی‌چون‌وچرا) شناخته می‌شود.

▫️به بیان ساده، مدل گاهی به‌جای ارائه پاسخ اصلاحی یا دقیق، با نظر کاربر همراهی می‌کرد، حتی زمانی که آن نظر نادرست بود.

▫️طبق گزارش، این تغییر مربوط به رابط کاربری ChatGPT برای کاربران عمومی است.
مدل‌ها ممکن است همچنان از طریق API برای توسعه‌دهندگان در دسترس باشند.

🔺️همچنین چند مدل قدیمی دیگر نیز از حالت «قابل انتخاب» خارج می‌شوند.

▫️این تصمیم نشان می‌دهد چالش مدل‌های زبانی فقط «هوشمندتر شدن» نیست،
بلکه تنظیم دقیق رفتار آن‌ها نیز اهمیت بالایی دارد.

📌 لینک خبر:
🔘 www.techrunch.com

#️⃣ #هوش_مصنوعی #فناوری
#OpenAI #ChatGPT #PyVision
#ArtificialIntelligence #GPT4o #TechNews #AIethics #TechCrunch

🌐 @PyVision
👍1👌1
PyVision | پای‌ویژن
سم آلتمن: ادعاهای مصرف آب ChatGPT «کاملاً نادرست» است. او گفت، جهان باید سریع‌تر به سمت انرژی‌های هسته‌ای، بادی و خورشیدی حرکت کند. جزئیات این خبر را در پست بعد بخوانید. 👇🏽 🌐 @PyVision
🔹️ سم آلتمن (Sam Altman)، مدیرعامل OpenAI، در رویداد هوش مصنوعی در هند به نگرانی‌ها درباره اثرات زیست‌محیطی هوش مصنوعی پاسخ داد.

🔹️ او گفت ادعاهایی مانند «مصرف ۱۷ گالن آب برای هر پرسش ChatGPT» پایه علمی ندارد و توضیح داد مراکز داده دیگر از روش‌های قدیمی خنک‌سازی تبخیری استفاده نمی‌کنند.

🔹️ آلتمن در عین حال تأکید کرد نگرانی درباره مصرف کل انرژی هوش مصنوعی قابل درک است، زیرا استفاده جهانی از AI به‌شدت در حال افزایش است. به گفته او، جهان باید سریع‌تر به سمت انرژی‌های هسته‌ای، بادی و خورشیدی حرکت کند.

🔹️ در پاسخ به این پرسش که آیا هر پرسش ChatGPT معادل ۱.۵ بار شارژ آیفون انرژی مصرف می‌کند، او گفت: «به هیچ‌وجه چنین عددی درست نیست.»

🔸️ با این حال، منتقدان معتقدند نبود شفافیت کامل در انتشار داده‌های مصرف انرژی مراکز داده، امکان ارزیابی مستقل و دقیق را محدود می‌کند. همچنین، رشد سریع تقاضا برای مدل‌های بزرگ ممکن است فشار قابل‌توجهی بر زیرساخت‌های برق وارد کند؛ حتی اگر مصرف هر پرسش به‌تنهایی پایین باشد.

💬 شما چه فکر می‌کنید؟
آیا نگرانی‌ها درباره مصرف انرژی هوش مصنوعی بیش از حد بزرگ‌نمایی شده است یا نیازمند شفافیت و مقررات جدی‌تری هستیم؟
دیدگاه خود را با ما به اشتراک بگذارید.

📌 لینک خبر:
🔘 www.techcrunch.com

#️⃣ #هوش_مصنوعی #سم_آلتمن #مصرف_انرژی #فناوری
#ArtificialIntelligence #AIenergy #OpenAI #ChatGPT #TechNews #PyVisio

🌐 @PyVision
🔥3
PyVision | پای‌ویژن
🔺️ کانادا به OpenAI هشدار داد: یا استانداردهای ایمنی را تقویت کنید یا ما این کار را می‌کنیم! 🔹️ جزئیات این خبر در پست بعدی...👇🏽 🌐 @PyVision
📰 فشار دولت کانادا بر OpenAI پس از یک تیراندازی مرگبار

🔺️ بر اساس گزارشی از Reuters، دولت کانادا به شرکت OpenAI اعلام کرده است که باید پروتکل‌های ایمنی خود را تقویت کند، در غیر این صورت دولت از طریق قانون‌گذاری این تغییرات را اعمال خواهد کرد.
این هشدار پس از آن مطرح شد که OpenAI اعلام کرد در سال گذشته حساب کاربری فردی را در ChatGPT به دلیل نقض سیاست‌ها مسدود کرده، اما موضوع را به پلیس گزارش نکرده است.
این فرد، «جسی ون روتسلاار» ۱۸ ساله، مظنون به کشتن هشت نفر در ۱۰ فوریه در شهر کوچک Tumbler Ridge در استان بریتیش کلمبیا است؛ حادثه‌ای که با خودکشی او پایان یافت.

🔹️ شرکت OpenAI اعلام کرده بود که حساب کاربری وی توسط سیستم‌های تشخیص «سوءاستفاده از مدل‌ها در راستای فعالیت‌های خشونت‌آمیز» شناسایی و مسدود شده، اما به این نتیجه رسیده که این حساب به سطح «تهدید فوری و معتبر برای آسیب جدی» نمی‌رسد و بنابراین به پلیس گزارش نشده است.

🔹️ وزیر دادگستری کانادا، شان فریزر، گفت دولت انتظار دارد تغییرات سریع در سیاست‌های ایمنی اجرا شود و در غیر این صورت، دولت از طریق قانون مداخله خواهد کرد.
نخست‌وزیر کانادا، مارک کارنی، نیز تأکید کرد هر اقدامی که می‌توانست از این تراژدی جلوگیری کند باید بررسی شود.

🔹️ این پرونده در شرایطی مطرح می‌شود که دولت کانادا پیش‌تر در سال ۲۰۲۴ پیش‌نویس قانونی برای مقابله با نفرت‌پراکنی آنلاین ارائه کرده بود، اما آن طرح به دلیل انتقادها متوقف شد و اکنون قرار است نسخه‌ای اصلاح‌شده ارائه شود.

🔹️ برخی کارشناسان حوزه جرم‌شناسی نیز اشاره کرده‌اند که علاوه بر پلتفرم‌های دیجیتال، ممکن است فرصت‌های دیگری برای پیشگیری از این حادثه از سوی نهادهای مختلف از دست رفته باشد.


🔍 این پرونده می‌تواند نقطه عطفی در تنظیم‌گری هوش مصنوعی در کانادا باشد. دولت‌ها به‌تدریج در حال افزایش فشار بر شرکت‌های AI برای شفافیت بیشتر و مسئولیت‌پذیری در قبال ریسک‌های اجتماعی هستند. در عین حال، تعیین مرز میان «نقض سیاست داخلی» و «تهدید قابل گزارش به پلیس» یکی از چالش‌های مهم حقوقی و فنی در عصر هوش مصنوعی محسوب می‌شود.

💬 شما چه فکر می‌کنید؟
آیا شرکت‌های هوش مصنوعی باید در موارد مشکوک، حتی بدون تهدید فوری، موضوع را به نهادهای قانونی گزارش دهند؟
مرز مسئولیت پلتفرم‌های AI تا کجاست؟

نظر خود را با ما در میان بگذارید. 👇🏽

📌 لینک خبر:
🔘 www.reuters.com

#️⃣ #هوش_مصنوعی #کانادا #تنظیم‌گری #امنیت_دیجیتال
#PyVision #OpenAI #ArtificialIntelligence #AIpolicy #TechNews #Reuters #Canada #USA

🌐 @PyVision
👌1