PyVision | پایویژن
🤖 شرکت OpenAI از GPT-5.3-Codex رونمایی کرد. نسل جدید مدلهای کدنویسی هوش مصنوعی با تمرکز بر وظایف پیچیده و عاملمحور. جزئیات و نکات مهم را در پست بعدی بخوانید. 👇🏽 🌐 @PyVision
🤖 شرکت OpenAI نسخهی جدید GPT-5.3-Codex را معرفی کرد
شرکت OpenAI از نسخهی پیشرفتهتری از ابزار هوش مصنوعی خود برای توسعهدهندگان رونمایی کرد: GPT-5.3-Codex — قویترین و پیشرفتهترین مدل کدنویسی هوش مصنوعی تا به امروز.
🔹 این مدل در چهار بنچمارک مهم از جمله SWE-Bench Pro و Terminal-Bench به بهترین عملکرد صنعت دست یافته است.
🔹چت جیپیتی کدکس GPT-5.3-Codex تنها کد نمینویسد، بلکه میتواند وظایف طولانی، پیچیده و چندمرحلهای را با ترکیب استدلال حرفهای و اجرای ابزارها انجام دهد.
🔹 نکتهی جذاب این است که نسخههای اولیهی خودش در توسعهاش نقش داشتهاند و به رفع اشکال و بهبود عملکرد کمک کردهاند، اتفاقی بیسابقه در تاریخ توسعه مدلها!
🔹 این مدل اکنون برای کاربران پولی در تمام محیطهای Codex (وب، CLI، IDE) دردسترس است و سطح جدیدی از همکاری هوش مصنوعی و کدنویسی را فراهم میکند.
🚀 سرعت بالاتر،
🔧 کدنویسی بهتر،
📚 توانایی اجرای پروژههای بزرگتر
🥇همه در یک مدل!
📌 منبع خبر:
🔘 openai.com
#️⃣ #هوش_مصنوعی #کدنویسی
#AI #GPT53 #OpenAI #Codex #PyVision
#ArtificialIntelligence #AIProgramming #DeveloperTools #TechNews
🌐 @PyVision
شرکت OpenAI از نسخهی پیشرفتهتری از ابزار هوش مصنوعی خود برای توسعهدهندگان رونمایی کرد: GPT-5.3-Codex — قویترین و پیشرفتهترین مدل کدنویسی هوش مصنوعی تا به امروز.
🔹 این مدل در چهار بنچمارک مهم از جمله SWE-Bench Pro و Terminal-Bench به بهترین عملکرد صنعت دست یافته است.
🔹چت جیپیتی کدکس GPT-5.3-Codex تنها کد نمینویسد، بلکه میتواند وظایف طولانی، پیچیده و چندمرحلهای را با ترکیب استدلال حرفهای و اجرای ابزارها انجام دهد.
🔹 نکتهی جذاب این است که نسخههای اولیهی خودش در توسعهاش نقش داشتهاند و به رفع اشکال و بهبود عملکرد کمک کردهاند، اتفاقی بیسابقه در تاریخ توسعه مدلها!
🔹 این مدل اکنون برای کاربران پولی در تمام محیطهای Codex (وب، CLI، IDE) دردسترس است و سطح جدیدی از همکاری هوش مصنوعی و کدنویسی را فراهم میکند.
🚀 سرعت بالاتر،
🔧 کدنویسی بهتر،
📚 توانایی اجرای پروژههای بزرگتر
🥇همه در یک مدل!
📌 منبع خبر:
🔘 openai.com
#️⃣ #هوش_مصنوعی #کدنویسی
#AI #GPT53 #OpenAI #Codex #PyVision
#ArtificialIntelligence #AIProgramming #DeveloperTools #TechNews
🌐 @PyVision
🔥2
PyVision | پایویژن
🔺️هوش مصنوعی GPT-4o از دسترس خارج میشود شرکت OpenAI اعلام کرده است که این مدل بهدلیل رفتار تأیید بیش از حد کاربر، دیگر در ChatGPT قابل انتخاب نخواهد بود. جزئیات بیشتر را در پست بعدی بخوانید.👇🏽🤖 🌐 @PyVision
🔺️شرکت OpenAI دسترسی به GPT-4o را متوقف میکند.
▫️بر اساس گزارشی از TechCrunch، شرکت OpenAI اعلام کرده که دسترسی به مدل GPT-4o را در نسخه عمومی ChatGPT متوقف خواهد کرد.
▫️طبق این گزارش، GPT-4o در برخی موارد تمایل داشته بیش از حد با کاربر موافقت کند. رفتاری که در حوزه هوش مصنوعی با عنوان «Sycophancy» (چاپلوسی یا تأیید بیچونوچرا) شناخته میشود.
▫️به بیان ساده، مدل گاهی بهجای ارائه پاسخ اصلاحی یا دقیق، با نظر کاربر همراهی میکرد، حتی زمانی که آن نظر نادرست بود.
▫️طبق گزارش، این تغییر مربوط به رابط کاربری ChatGPT برای کاربران عمومی است.
مدلها ممکن است همچنان از طریق API برای توسعهدهندگان در دسترس باشند.
🔺️همچنین چند مدل قدیمی دیگر نیز از حالت «قابل انتخاب» خارج میشوند.
▫️این تصمیم نشان میدهد چالش مدلهای زبانی فقط «هوشمندتر شدن» نیست،
بلکه تنظیم دقیق رفتار آنها نیز اهمیت بالایی دارد.
📌 لینک خبر:
🔘 www.techrunch.com
#️⃣ #هوش_مصنوعی #فناوری
#OpenAI #ChatGPT #PyVision
#ArtificialIntelligence #GPT4o #TechNews #AIethics #TechCrunch
🌐 @PyVision
▫️بر اساس گزارشی از TechCrunch، شرکت OpenAI اعلام کرده که دسترسی به مدل GPT-4o را در نسخه عمومی ChatGPT متوقف خواهد کرد.
▫️طبق این گزارش، GPT-4o در برخی موارد تمایل داشته بیش از حد با کاربر موافقت کند. رفتاری که در حوزه هوش مصنوعی با عنوان «Sycophancy» (چاپلوسی یا تأیید بیچونوچرا) شناخته میشود.
▫️به بیان ساده، مدل گاهی بهجای ارائه پاسخ اصلاحی یا دقیق، با نظر کاربر همراهی میکرد، حتی زمانی که آن نظر نادرست بود.
▫️طبق گزارش، این تغییر مربوط به رابط کاربری ChatGPT برای کاربران عمومی است.
مدلها ممکن است همچنان از طریق API برای توسعهدهندگان در دسترس باشند.
🔺️همچنین چند مدل قدیمی دیگر نیز از حالت «قابل انتخاب» خارج میشوند.
▫️این تصمیم نشان میدهد چالش مدلهای زبانی فقط «هوشمندتر شدن» نیست،
بلکه تنظیم دقیق رفتار آنها نیز اهمیت بالایی دارد.
📌 لینک خبر:
🔘 www.techrunch.com
#️⃣ #هوش_مصنوعی #فناوری
#OpenAI #ChatGPT #PyVision
#ArtificialIntelligence #GPT4o #TechNews #AIethics #TechCrunch
🌐 @PyVision
👍1👌1
PyVision | پایویژن
⚡ سم آلتمن: ادعاهای مصرف آب ChatGPT «کاملاً نادرست» است. او گفت، جهان باید سریعتر به سمت انرژیهای هستهای، بادی و خورشیدی حرکت کند. جزئیات این خبر را در پست بعد بخوانید. 👇🏽 🌐 @PyVision
🔹️ سم آلتمن (Sam Altman)، مدیرعامل OpenAI، در رویداد هوش مصنوعی در هند به نگرانیها درباره اثرات زیستمحیطی هوش مصنوعی پاسخ داد.
🔹️ او گفت ادعاهایی مانند «مصرف ۱۷ گالن آب برای هر پرسش ChatGPT» پایه علمی ندارد و توضیح داد مراکز داده دیگر از روشهای قدیمی خنکسازی تبخیری استفاده نمیکنند.
🔹️ آلتمن در عین حال تأکید کرد نگرانی درباره مصرف کل انرژی هوش مصنوعی قابل درک است، زیرا استفاده جهانی از AI بهشدت در حال افزایش است. به گفته او، جهان باید سریعتر به سمت انرژیهای هستهای، بادی و خورشیدی حرکت کند.
🔹️ در پاسخ به این پرسش که آیا هر پرسش ChatGPT معادل ۱.۵ بار شارژ آیفون انرژی مصرف میکند، او گفت: «به هیچوجه چنین عددی درست نیست.»
🔸️ با این حال، منتقدان معتقدند نبود شفافیت کامل در انتشار دادههای مصرف انرژی مراکز داده، امکان ارزیابی مستقل و دقیق را محدود میکند. همچنین، رشد سریع تقاضا برای مدلهای بزرگ ممکن است فشار قابلتوجهی بر زیرساختهای برق وارد کند؛ حتی اگر مصرف هر پرسش بهتنهایی پایین باشد.
💬 شما چه فکر میکنید؟
آیا نگرانیها درباره مصرف انرژی هوش مصنوعی بیش از حد بزرگنمایی شده است یا نیازمند شفافیت و مقررات جدیتری هستیم؟
دیدگاه خود را با ما به اشتراک بگذارید.
📌 لینک خبر:
🔘 www.techcrunch.com
#️⃣ #هوش_مصنوعی #سم_آلتمن #مصرف_انرژی #فناوری
#ArtificialIntelligence #AIenergy #OpenAI #ChatGPT #TechNews #PyVisio
🌐 @PyVision
🔹️ او گفت ادعاهایی مانند «مصرف ۱۷ گالن آب برای هر پرسش ChatGPT» پایه علمی ندارد و توضیح داد مراکز داده دیگر از روشهای قدیمی خنکسازی تبخیری استفاده نمیکنند.
🔹️ آلتمن در عین حال تأکید کرد نگرانی درباره مصرف کل انرژی هوش مصنوعی قابل درک است، زیرا استفاده جهانی از AI بهشدت در حال افزایش است. به گفته او، جهان باید سریعتر به سمت انرژیهای هستهای، بادی و خورشیدی حرکت کند.
🔹️ در پاسخ به این پرسش که آیا هر پرسش ChatGPT معادل ۱.۵ بار شارژ آیفون انرژی مصرف میکند، او گفت: «به هیچوجه چنین عددی درست نیست.»
🔸️ با این حال، منتقدان معتقدند نبود شفافیت کامل در انتشار دادههای مصرف انرژی مراکز داده، امکان ارزیابی مستقل و دقیق را محدود میکند. همچنین، رشد سریع تقاضا برای مدلهای بزرگ ممکن است فشار قابلتوجهی بر زیرساختهای برق وارد کند؛ حتی اگر مصرف هر پرسش بهتنهایی پایین باشد.
💬 شما چه فکر میکنید؟
آیا نگرانیها درباره مصرف انرژی هوش مصنوعی بیش از حد بزرگنمایی شده است یا نیازمند شفافیت و مقررات جدیتری هستیم؟
دیدگاه خود را با ما به اشتراک بگذارید.
📌 لینک خبر:
🔘 www.techcrunch.com
#️⃣ #هوش_مصنوعی #سم_آلتمن #مصرف_انرژی #فناوری
#ArtificialIntelligence #AIenergy #OpenAI #ChatGPT #TechNews #PyVisio
🌐 @PyVision
🔥3
PyVision | پایویژن
🔺️ کانادا به OpenAI هشدار داد: یا استانداردهای ایمنی را تقویت کنید یا ما این کار را میکنیم! 🔹️ جزئیات این خبر در پست بعدی...👇🏽 🌐 @PyVision
📰 فشار دولت کانادا بر OpenAI پس از یک تیراندازی مرگبار
🔺️ بر اساس گزارشی از Reuters، دولت کانادا به شرکت OpenAI اعلام کرده است که باید پروتکلهای ایمنی خود را تقویت کند، در غیر این صورت دولت از طریق قانونگذاری این تغییرات را اعمال خواهد کرد.
این هشدار پس از آن مطرح شد که OpenAI اعلام کرد در سال گذشته حساب کاربری فردی را در ChatGPT به دلیل نقض سیاستها مسدود کرده، اما موضوع را به پلیس گزارش نکرده است.
این فرد، «جسی ون روتسلاار» ۱۸ ساله، مظنون به کشتن هشت نفر در ۱۰ فوریه در شهر کوچک Tumbler Ridge در استان بریتیش کلمبیا است؛ حادثهای که با خودکشی او پایان یافت.
🔹️ شرکت OpenAI اعلام کرده بود که حساب کاربری وی توسط سیستمهای تشخیص «سوءاستفاده از مدلها در راستای فعالیتهای خشونتآمیز» شناسایی و مسدود شده، اما به این نتیجه رسیده که این حساب به سطح «تهدید فوری و معتبر برای آسیب جدی» نمیرسد و بنابراین به پلیس گزارش نشده است.
🔹️ وزیر دادگستری کانادا، شان فریزر، گفت دولت انتظار دارد تغییرات سریع در سیاستهای ایمنی اجرا شود و در غیر این صورت، دولت از طریق قانون مداخله خواهد کرد.
نخستوزیر کانادا، مارک کارنی، نیز تأکید کرد هر اقدامی که میتوانست از این تراژدی جلوگیری کند باید بررسی شود.
🔹️ این پرونده در شرایطی مطرح میشود که دولت کانادا پیشتر در سال ۲۰۲۴ پیشنویس قانونی برای مقابله با نفرتپراکنی آنلاین ارائه کرده بود، اما آن طرح به دلیل انتقادها متوقف شد و اکنون قرار است نسخهای اصلاحشده ارائه شود.
🔹️ برخی کارشناسان حوزه جرمشناسی نیز اشاره کردهاند که علاوه بر پلتفرمهای دیجیتال، ممکن است فرصتهای دیگری برای پیشگیری از این حادثه از سوی نهادهای مختلف از دست رفته باشد.
🔍 این پرونده میتواند نقطه عطفی در تنظیمگری هوش مصنوعی در کانادا باشد. دولتها بهتدریج در حال افزایش فشار بر شرکتهای AI برای شفافیت بیشتر و مسئولیتپذیری در قبال ریسکهای اجتماعی هستند. در عین حال، تعیین مرز میان «نقض سیاست داخلی» و «تهدید قابل گزارش به پلیس» یکی از چالشهای مهم حقوقی و فنی در عصر هوش مصنوعی محسوب میشود.
💬 شما چه فکر میکنید؟
آیا شرکتهای هوش مصنوعی باید در موارد مشکوک، حتی بدون تهدید فوری، موضوع را به نهادهای قانونی گزارش دهند؟
مرز مسئولیت پلتفرمهای AI تا کجاست؟
نظر خود را با ما در میان بگذارید. 👇🏽
📌 لینک خبر:
🔘 www.reuters.com
#️⃣ #هوش_مصنوعی #کانادا #تنظیمگری #امنیت_دیجیتال
#PyVision #OpenAI #ArtificialIntelligence #AIpolicy #TechNews #Reuters #Canada #USA
🌐 @PyVision
🔺️ بر اساس گزارشی از Reuters، دولت کانادا به شرکت OpenAI اعلام کرده است که باید پروتکلهای ایمنی خود را تقویت کند، در غیر این صورت دولت از طریق قانونگذاری این تغییرات را اعمال خواهد کرد.
این هشدار پس از آن مطرح شد که OpenAI اعلام کرد در سال گذشته حساب کاربری فردی را در ChatGPT به دلیل نقض سیاستها مسدود کرده، اما موضوع را به پلیس گزارش نکرده است.
این فرد، «جسی ون روتسلاار» ۱۸ ساله، مظنون به کشتن هشت نفر در ۱۰ فوریه در شهر کوچک Tumbler Ridge در استان بریتیش کلمبیا است؛ حادثهای که با خودکشی او پایان یافت.
🔹️ شرکت OpenAI اعلام کرده بود که حساب کاربری وی توسط سیستمهای تشخیص «سوءاستفاده از مدلها در راستای فعالیتهای خشونتآمیز» شناسایی و مسدود شده، اما به این نتیجه رسیده که این حساب به سطح «تهدید فوری و معتبر برای آسیب جدی» نمیرسد و بنابراین به پلیس گزارش نشده است.
🔹️ وزیر دادگستری کانادا، شان فریزر، گفت دولت انتظار دارد تغییرات سریع در سیاستهای ایمنی اجرا شود و در غیر این صورت، دولت از طریق قانون مداخله خواهد کرد.
نخستوزیر کانادا، مارک کارنی، نیز تأکید کرد هر اقدامی که میتوانست از این تراژدی جلوگیری کند باید بررسی شود.
🔹️ این پرونده در شرایطی مطرح میشود که دولت کانادا پیشتر در سال ۲۰۲۴ پیشنویس قانونی برای مقابله با نفرتپراکنی آنلاین ارائه کرده بود، اما آن طرح به دلیل انتقادها متوقف شد و اکنون قرار است نسخهای اصلاحشده ارائه شود.
🔹️ برخی کارشناسان حوزه جرمشناسی نیز اشاره کردهاند که علاوه بر پلتفرمهای دیجیتال، ممکن است فرصتهای دیگری برای پیشگیری از این حادثه از سوی نهادهای مختلف از دست رفته باشد.
🔍 این پرونده میتواند نقطه عطفی در تنظیمگری هوش مصنوعی در کانادا باشد. دولتها بهتدریج در حال افزایش فشار بر شرکتهای AI برای شفافیت بیشتر و مسئولیتپذیری در قبال ریسکهای اجتماعی هستند. در عین حال، تعیین مرز میان «نقض سیاست داخلی» و «تهدید قابل گزارش به پلیس» یکی از چالشهای مهم حقوقی و فنی در عصر هوش مصنوعی محسوب میشود.
💬 شما چه فکر میکنید؟
آیا شرکتهای هوش مصنوعی باید در موارد مشکوک، حتی بدون تهدید فوری، موضوع را به نهادهای قانونی گزارش دهند؟
مرز مسئولیت پلتفرمهای AI تا کجاست؟
نظر خود را با ما در میان بگذارید. 👇🏽
📌 لینک خبر:
🔘 www.reuters.com
#️⃣ #هوش_مصنوعی #کانادا #تنظیمگری #امنیت_دیجیتال
#PyVision #OpenAI #ArtificialIntelligence #AIpolicy #TechNews #Reuters #Canada #USA
🌐 @PyVision
👌1