اخبار هوش مصنوعی در 2025-11-26

مدل‌های جدید هوش مصنوعی

  • Anthropic یک پست وبلاگی مهندسی در مورد ایجاد مهارکننده‌ی عامل مؤثرتر برای عامل‌های هوش مصنوعی با مدت زمان طولانی که در پنجره‌های متنی زیادی کار می‌کنند، منتشر می‌کند و از مهندسان انسانی الهام می‌گیرد. @AnthropicAI
  • Perplexity قابلیت Memory را راه‌اندازی می‌کند که رشته‌های کاربری و علایق را در تمام مدل‌ها و حالت‌های جستجو به خاطر می‌سپارد و امکان ادامه‌ی مکالمه با زمینه‌ی کامل را هفته‌ها بعد فراهم می‌کند. @perplexity_ai
  • Perplexity قابلیت virtual try-on را برای همه‌ی مشترکین Pro و Max عرضه می‌کند که به کاربران امکان می‌دهد آواتارهای دیجیتال ایجاد کرده و لباس‌ها را به صورت مجازی هنگام خرید امتحان کنند. @perplexity_ai
  • گوگل اعلام می‌کند که دانشجویان واجد شرایط می‌توانند Gemini's Pro Plan را به مدت یک سال رایگان دریافت کنند. @GeminiApp
  • Claude Desktop اکنون از multi-clauding برای هر دو جلسه‌ی محلی و ابری پشتیبانی می‌کند که یکی از درخواست‌های اصلی کاربران بود. @_catwu
  • Claude Code Plan Mode را معرفی می‌کند (با دو بار فشار دادن shift + tab فعال می‌شود) که به کاربران امکان می‌دهد برنامه‌های اجرایی را قبل از اعمال تغییرات کد تأیید کنند. @_catwu
  • Character AI فرمت Stories را راه‌اندازی می‌کند که در آن کاربران روایت‌های بصری/متنی هدایت‌شده توسط هوش مصنوعی را دنبال می‌کنند و با پیشرفت داستان، انتخاب‌هایی انجام می‌دهند، با ویژگی‌های چندوجهی برنامه‌ریزی‌شده. @AndrewCurran_
  • Perplexity از یک سرویس خبری بلادرنگ در Perplexity Finance خبر می‌دهد که API آن به زودی در دسترس خواهد بود. @AravSrinivas

تحلیل صنعت

  • ساندار پیچای استراتژی ده ساله‌ی گوگل با اولویت هوش مصنوعی را با لوگان کیلپاتریک مورد بحث قرار می‌دهد و تأکید می‌کند که چگونه Gemini 3 بسیاری از محصولات گوگل و شرکای اکوسیستم را قادر ساخت تا تجربه‌ی خود را در روز اول بهبود بخشند و نوآوری در مقیاس را نشان می‌دهد. @sundarpichai
  • مطالعه‌ی تحقیقاتی «اقتصادهای هوش باز» ۲.۲ میلیارد دانلود Hugging Face را در ۸۵۱,۰۰۰ مدل از سال ۲۰۲۰ تا ۲۰۲۵ ترسیم می‌کند و تعادل مجدد قدرت را نشان می‌دهد که شرکت‌های بزرگ فناوری ایالات متحده در حال کاهش هستند در حالی که مشارکت‌های چین و جامعه افزایش می‌یابد. @ShayneRedford
  • این مطالعه نشان می‌دهد که مدل‌ها از طریق MoE، کوانتیزاسیون و افزایش چندوجهی بزرگ‌تر و کارآمدتر شده‌اند، در حالی که واسطه‌هایی مانند آداپتورها و کوانتیزرها اکنون به طور قابل توجهی استفاده را هدایت می‌کنند. @ShayneRedford
  • ایتان مولیک شباهت‌هایی بین توسعه‌ی هوش مصنوعی و قانون مور ترسیم می‌کند و اشاره می‌کند که هر دو پیشرفت نمایی را از طریق بسیاری از فناوری‌های مختلف در طول زمان به جای یک رویکرد واحد نشان می‌دهند، با هوش مصنوعی که قبلاً از طریق داده‌های مصنوعی، استدلال و کاربردهای جدید RL بر موانع غلبه کرده است. @emollick
  • ایتان مولیک پیش‌بینی می‌کند که انتظار رسیدن سرویس هوش مصنوعی پیشرو به ۸۰ درصد سطح مشترکین سرویس موسیقی پیشرو در عرض ۵ سال، دیوانگی نیست. @emollick
  • رویکرد Linear برای ساخت نرم‌افزار از سال ۲۰۱۹ بر صنعتگران با نقش‌های ترکیبی تأکید دارد تا توسعه‌ی خط مونتاژ به سبک هنری فورد. @karrisaarinen
  • مصطفی سلیمان از بازدید از تیم‌های مایکروسافت هوش مصنوعی آسیا در چین گزارش می‌دهد و به سرعت، اجرا و خلاقیت آن‌ها، به ویژه در هوش مصنوعی‌های چندعاملی chain-of-debate اشاره می‌کند. @mustafasuleyman
  • مصطفی سلیمان مشاهده می‌کند که شرکت‌های رباتیک انسان‌نمای چینی مانند UBTECH ربات‌های ماهر را از آزمایشگاه به کار در دنیای واقعی منتقل می‌کنند و به سرعت چشمگیر نوآوری با همگرایی هوش مصنوعی و رباتیک اشاره می‌کند. @mustafasuleyman

اخلاق و جامعه

  • ۳۶ دادستان کل از هر دو حزب دموکرات و جمهوری‌خواه نامه‌ای به مجلس نمایندگان و سنا می‌نویسند و با هرگونه توقف قوانین ایالتی حاکم بر هوش مصنوعی مخالفت می‌کنند. @AndrewCurran_
  • محققان استنفورد دریافتند که مکالمات کاربران با چت‌بات‌ها به طور پیش‌فرض برای آموزش استفاده می‌شوند و شکاف‌های نگران‌کننده‌ای در حفاظت از حریم خصوصی را نشان می‌دهد. @StanfordHAI
  • سایمون ویلیسون از یک آسیب‌پذیری تزریق پرامپت مخرب در Antigravity گزارش می‌دهد که سیستم را فریب می‌دهد تا اعتبارنامه‌های AWS را از فایل‌های .env سرقت کرده و آن‌ها را به سایت‌های اشکال‌زدایی وب‌هوک در لیست مجاز پیش‌فرض نشت دهد. @simonw
  • سایمون ویلیسون توصیه می‌کند که هرگونه اعتبارنامه‌ی قابل مشاهده برای عامل‌های کدنویسی را به حساب‌های غیرتولیدی با محدودیت‌های هزینه‌ی سخت‌گیرانه مرتبط کنید تا در صورت سرقت اعتبارنامه‌ها، شعاع آسیب را کاهش دهید. @simonw
  • OpenAI ادعا می‌کند که یک نوجوان قبل از خودکشی که ChatGPT به برنامه‌ریزی آن کمک کرده بود، ویژگی‌های ایمنی را دور زده است، طبق گزارش TechCrunch. @TechCrunch
  • Stanford HAI از دانشگاه‌ها می‌خواهد که پرچم علم باز را به جلو ببرند، با این باور که فصل بعدی هوش مصنوعی باید شفافیت علمی را با ارزش‌های انسان‌محور ترکیب کند. @StanfordHAI

کاربردها

  • قابلیت Memory Perplexity به صورت عامل‌محور با استخراج جزئیات مرتبط از مکالمات گذشته برای پاسخ‌های بهتر عمل می‌کند، با قابلیت‌های پیشرفته در Comet که به تب‌های باز، پروژه‌های فعال و داده‌های Google Workspace نیز دسترسی دارد. @AravSrinivas
  • Perplexity یک تب Watchlist اختصاصی را معرفی می‌کند که خلاصه‌های بازار را برای سهام‌های منتخب ارائه می‌دهد، با اعلان‌های فشاری که به زودی ارائه می‌شوند. @AravSrinivas
  • BrandPulse به عنوان یک پلتفرم نظارت و دید هوش مصنوعی برای برندها راه‌اندازی می‌شود که نشان می‌دهد برندها چند بار در پاسخ‌های تولید شده توسط هوش مصنوعی ظاهر می‌شوند، احساسات/زمینه‌ی ذکرها، مقایسه‌ی رقبا و اینکه برندها از سوالات کلیدی هوش مصنوعی کجا غایب هستند. @mehdiyarix
  • یوجین یان راهنمایی در مورد ساخت ارزیابی‌های محصول در سه مرحله‌ی اساسی منتشر می‌کند: برچسب‌گذاری مجموعه‌ی داده‌ی کوچک، هم‌ترازی ارزیاب‌های LLM و اجرای مهارکننده‌ی ارزیابی با هر تغییر پیکربندی. @eugeneyan
  • ناتان لمبرت سری Artifacts Log را به عنوان خلاصه‌ی ماهانه‌ی مدل‌های باز ایجاد می‌کند که ۳۰-۴۰ مدل از ۲۰-۳۰ سازمان در سراسر اکوسیستم هوش مصنوعی را با خلاصه‌های کوتاه مرور می‌کند. @natolambert
  • مصطفی سلیمان از شرکت‌های چینی مانند XtalPi و Insilico Medicine بازدید می‌کند که روی خودکارسازی علم کار می‌کنند، با هوش مصنوعی و رباتیک که سال‌ها کار را در عرض چند هفته برای داروهای و مواد پیشگامانه فشرده می‌کنند. @mustafasuleyman

پژوهش‌ها

  • ایتان مولیک از اعمال دقت روش‌شناختی بیشتر در LLM به عنوان قاضی استقبال می‌کند و اشاره می‌کند که رتبه‌بندی‌های LLM در قلب تعداد زیادی از معیارها قرار دارند و اغلب بدون اعتبارسنجی آماری واضح استفاده می‌شوند. @emollick
  • ایتان مولیک تأکید می‌کند که مرز ناهموار قابلیت‌های هوش مصنوعی حتی در سطح شغل فردی نیز قابل توجه است، با وظایف حیاتی که هوش مصنوعی نمی‌تواند انجام دهد و گلوگاه‌های عمیقی ایجاد می‌کند، به ویژه که شکل مرز ناشناخته است. @emollick
  • یوهانس داس در مورد ارتباط بین کیفیت کد و امنیت بحث می‌کند و اشاره می‌کند که کد اسپاگتی مشکلات امنیتی را در بررسی‌ها دشوارتر می‌کند و رفع آن‌ها را سخت‌تر می‌کند، با کد تولید شده توسط هوش مصنوعی که معمولاً کیفیت پایینی دارد و به مشکل امنیتی تبدیل می‌شود. @GergelyOrosz
  • لوگان کیلپاتریک اشاره می‌کند که Gemini 3 Pro علاوه بر بسیاری از معیارهای دیگر، در معیارهای استفاده از ابزار در دنیای واقعی مانند Vending-Bench نیز پیشرفته‌ترین باقی می‌ماند. @OfficialLoganK
  • یوجین یان مشاهده می‌کند که گلوگاه‌های جدید در هوش مصنوعی عمیقاً انسانی هستند: سلیقه، بینش، قضاوت و زمینه، با هوش مصنوعی که گزینه‌ها را بررسی می‌کند اما قادر به تعیین درست نیست، که تخصص را در قضاوت به جای اجرا مهم می‌کند. @eugeneyan
  • Google DeepMind مستند The Thinking Game در مورد AlphaFold را به صورت رایگان در یوتیوب منتشر می‌کند تا پنج سالگی آن را جشن بگیرد و نگاهی صریح به پیروزی‌ها، چالش‌ها و لحظات محوری که منجر به پیشرفت در یک چالش بزرگ ۵۰ ساله در زیست‌شناسی شد، ارائه می‌دهد. @GoogleDeepMind
  • شین لگ به اشتراک می‌گذارد که مستند The Thinking Game تصویر گسترده‌تری از داستان و مأموریت DeepMind برای ساخت AGI ارائه می‌دهد، با استفاده از مصاحبه‌هایی که به سال‌ها قبل بازمی‌گردد. @ShaneLegg