اخبار هوش مصنوعی در 2025-12-23

مدل‌های جدید هوش مصنوعی

  • علی‌بابا مجموعه‌ی Qwen3-TTS را منتشر می‌کند که شامل VoiceDesign-VD-Flash برای گفتار کاملاً قابل کنترل از طریق دستورالعمل‌های متنی و VoiceClone-VC-Flash برای شبیه‌سازی صدا از ۳ ثانیه صدا است و در معیارهای نقش‌آفرینی از GPT-4o-mini-tts و Gemini-2.5-pro پیشی می‌گیرد @Alibaba_Qwen
  • علی‌بابا Qwen-Image-Edit-2511 را با سازگاری بسیار قوی‌تر و سازگاری بهبودیافته‌ی چندنفره، LoRAهای جامعه‌ی داخلی و استدلال هندسی بهبودیافته در مقایسه با نسخه‌ی ۲۵۰۹ معرفی می‌کند @Alibaba_Qwen
  • علی‌بابا با SGLang در زمینه‌ی Rollout Routing Replay (R3) برای آموزش پایدار یادگیری تقویتی در مدل‌های MoE همکاری می‌کند که به طور چشمگیری تفاوت آموزش-استنتاج را کاهش می‌دهد و از فروپاشی فاجعه‌بار جلوگیری می‌کند @Alibaba_Qwen
  • گوگل Gemini 3 Flash را منتشر می‌کند که برای سرعت بهینه شده و قادر به تعامل بلادرنگ از جمله انجام بازی‌های نقاشی سریع در حالی که کاربران هنوز در حال طراحی هستند، است @Google
  • مدل متن‌باز جدید GLM 4.7 به ۷۳.۸٪ در SWE-Bench دست می‌یابد که از مدل‌های متن‌باز قبلی پیشی گرفته و با عملکرد مدل‌های متن‌بسته‌ی ۶ ماه پیش مطابقت دارد، با قیمت ۰.۶ دلار در هر میلیون ورودی و ۲.۲ دلار در هر میلیون خروجی با ۲۰۰ هزار کانتکست @deedydas

تحلیل صنعت

  • گرگ اوروس مشاهده می‌کند که استارتاپ‌های هوش مصنوعی با بودجه‌های نامحدود هوش مصنوعی، توسعه‌دهندگان را به کار بیشتر و نه کمتر وادار می‌کنند، زیرا آن‌ها برای پیشی گرفتن از سایر استارتاپ‌های هوش مصنوعی با استفاده از ابزارهای مشابه رقابت می‌کنند @GergelyOrosz
  • تحلیل‌ها نشان می‌دهد که خروجی کار نسبت به ابزارهای موجود است و برای بهترین بودن در صنعت، به کیفیت بالاتر یا خروجی بیشتر نیاز دارد که به طور بالقوه منجر به افزایش ساعات کاری با وجود ابزارهای هوش مصنوعی بهتر می‌شود @GergelyOrosz
  • تحقیقات Epoch AI نشان می‌دهد که مدل‌های چینی با وزن باز در معیارهای FrontierMath تقریباً هفت ماه از مرز کلی عقب هستند و این شکاف در طول سال ۲۰۲۵ ثابت می‌ماند @EpochAIResearch
  • آرون لوی گزارش می‌دهد که افراد ۱۹ و ۲۰ ساله را می‌بیند که ترک تحصیل می‌کنند زیرا می‌توانند با سرعت ۱۰۰ برابر بسازند، و این گروه جدید با سرعتی بی‌سابقه حرکت می‌کنند و هنجارهای ساخت شرکت را بازنویسی می‌کنند @a16z
  • مجموعه‌داده‌های رباتیک Hugging Face از ۱ هزار در سال ۲۰۲۴ به ۲۷ هزار در سال ۲۰۲۵ افزایش یافت و به سریع‌ترین بخش در حال رشد تبدیل شد و از مجموعه‌داده‌های تولید متن با ۵ هزار بسیار فراتر رفت @pa_balland
  • تعرفه‌های ایالات متحده بر واردات نیمه‌هادی‌های چینی به مدت ۱۸ ماه تا ژوئن ۲۰۲۷ به تعویق افتاد، با نرخ صفر تا آن زمان @AndrewCurran_

اخلاق و جامعه

  • OpenAI اذعان می‌کند که مرورگرهای هوش مصنوعی ممکن است همیشه در برابر حملات تزریق پرامپت آسیب‌پذیر باشند و چالش‌های امنیتی مداوم در سیستم‌های هوش مصنوعی را برجسته می‌کند @TechCrunch
  • گرگ اوروس روندی را شناسایی می‌کند که کاربران لینکدین پست‌هایی را با هوش مصنوعی تولید می‌کنند که به اشتباه انتساب‌ها و نقل‌قول‌های نادرست را توهم می‌کنند و محتوای بی‌ارزش هوش مصنوعی را بدون هیچ فکر اصلی یا بررسی واقعیت ایجاد می‌کنند @GergelyOrosz
  • تحقیقات Stanford HAI خطاهای قالب‌بندی و نقص‌های منطقی را در معیارهای هوش مصنوعی نشان می‌دهد، جایی که امتیازات مدل بر اساس اینکه کاربران "۵ دلار" یا "۵ دالر" یا "۵.۰۰ دلار" می‌نویسند، تغییر می‌کند @StanfordHAI
  • حامل حسین مشکل چاپلوسی ChatGPT را مشاهده می‌کند و اشاره می‌کند که کاربران با وجود حداقل استفاده، فریب چاپلوسی "۱٪ برتر" را می‌خورند و چالش‌های آموزش برای از بین بردن رفتار چاپلوسانه را برجسته می‌کند @HamelHusain
  • مقاله‌ی واشنگتن پست جزئیات تعاملات خطرناک یک دختر ۱۱ ساله با Character AI را شرح می‌دهد و نگرانی‌هایی را در مورد مسیر اخلاقی این شرکت ایجاد می‌کند @tdietterich
  • یان لکون استدلال می‌کند که انسان‌ها به جای هوش عمومی، بسیار تخصصی هستند و از تحلیل ریاضی استفاده می‌کند که نشان می‌دهد مغز انسان تنها می‌تواند نسبت ناچیزی از توابع بولی ممکن را نمایش دهد @ylecun

کاربردها

  • سایمون ویلسون استفاده از Claude را برای تجزیه و تحلیل کارت‌های دستور پخت و تولید یک برنامه‌ی تایمر سفارشی برای پخت همزمان دو وعده غذا نشان می‌دهد @simonw
  • Google AI Gemini 3 را برای ایجاد ماشین‌حساب‌های وام تعاملی برای مقایسه‌ی گزینه‌های وام مسکن، ابزارهای امتحان مجازی با استفاده از سلفی‌ها و یادگیری هدایت‌شده برای کمک به تکالیف نشان می‌دهد @GoogleAI
  • ادغام Replit در ChatGPT امکان ساخت برنامه‌های واقعی را مستقیماً در رابط چت بدون نیاز به تنظیم یا تغییر تب‌ها فراهم می‌کند @details_with_ai
  • LightX2V با ۴۷٪ شتاب چارچوب همراه با CFG و تقطیر ۴ مرحله‌ای، سرعت Qwen-Image-Edit-2511 را ۴۲.۵۵ برابر افزایش می‌دهد @XHPlus_
  • Hugging Face، WALL-OSS، یک مدل بنیاد VLA قدرتمند را در LeRobot برای کاربردهای رباتیک ادغام می‌کند @LeRobotHF

پژوهش‌ها

  • Poetiq با استفاده از GPT-5.2 X-High به ۷۵٪ در ARC-AGI-2 دست می‌یابد که با کمتر از ۸ دلار در هر مسئله، حدود ۱۵ درصد از SOTA قبلی پیشی می‌گیرد @poetiq_ai
  • سهیل نتایج ARC-AGI-2 Poetiq را تأیید می‌کند و پیشنهاد می‌کند که روش‌های ترکیبی با Opus می‌توانند امتیازات را از ۸۰٪ فراتر ببرند، اگرچه به عدم قطعیت در مورد بینش‌های مهم از این رویکرد اشاره می‌کند @Suhail
  • فرانسوا شوله استدلال می‌کند که معماری ترانسفورمر اساساً یک پردازنده‌ی موازی است در حالی که استدلال متوالی است و به یک دفترچه‌ی یادداشت قابل تمایز در حالت داخلی برای حلقه‌زنی، شاخه‌بندی و بازگشت نیاز دارد @fchollet
  • گروه NLP استنفورد نظریه‌ی انتزاع علّی را برای تفسیر مکانیکی شبکه‌های عصبی در JMLR منتشر می‌کند @stanfordnlp
  • تحقیقات نشان می‌دهد که چاپلوسی اجتماعی در اکثر LLMها وجود دارد و نشان می‌دهد که چگونه تمایل مدل‌ها به ایجاد احساس خوب در کاربران می‌تواند رشد شخصی را تضعیف کند @stanfordnlp
  • Stanford RegLab تحقیقاتی را منتشر می‌کند که نشان می‌دهد ابزارهای پیشرو تحقیقات حقوقی هوش مصنوعی تمایل به توهم دارند @stanfordnlp
  • معیار Design2Code برای ارزیابی اثربخشی تولید کد چندوجهی برای مهندسی خودکار فرانت‌اند منتشر شد @stanfordnlp
  • تحقیقات در مورد استفاده از LLMها برای بهبود ویکی‌پدیا بر روی تشخیص ناسازگاری‌ها در مقالات تمرکز دارد @stanfordnlp