اخبار هوش مصنوعی در 2025-11-10

مدل‌های جدید هوش مصنوعی

  • متا Omnilingual ASR را منتشر می‌کند، مجموعه‌ای از مدل‌های تشخیص خودکار گفتار که از بیش از ۱۶۰۰ زبان، از جمله ۵۰۰ زبان با پوشش کم که قبلاً توسط هیچ سیستم ASR دیگری پشتیبانی نشده بودند، پشتیبانی می‌کند. این انتشار شامل مدل‌هایی با اندازه‌ی پارامتر از ۳۰۰ میلیون تا ۷ میلیارد، یک مدل نمایش گفتار چندزبانه‌ی ۷ میلیارد پارامتری (Omnilingual w2v 2.0) و یک مجموعه‌ی داده است که ۳۵۰ زبان محروم را پوشش می‌دهد @AIatMeta

تحلیل صنعت

  • شرکت گاما به سودآوری ۱۰۰ میلیون دلار ARR تنها با ۵۰ کارمند (۲ میلیون دلار ARR به ازای هر کارمند) دست می‌یابد و به ارزش ۲.۱ میلیارد دلار در دور تأمین مالی سری B به رهبری a16z می‌رسد که نشان‌دهنده‌ی کارایی شرکت‌های بومی هوش مصنوعی در ایجاد تحول در دسته‌بندی‌های جاافتاده مانند نرم‌افزار ارائه‌ی مطلب است @thisisgrantlee
  • شرکت‌های سرمایه‌گذاری خطرپذیر به طور فزاینده‌ای برای حفظ رقابت‌پذیری، کل فرایند بررسی دقیق (due diligence) را کنار می‌گذارند، با نمونه‌هایی از جمله پیشنهاد ۱۰ میلیون دلاری به یک استارتاپ ثبت‌نشده و بسته‌شدن یک دور سری A ۲۰ میلیون دلاری در ۲ روز بدون هیچ‌گونه دسترسی به اتاق داده @deedydas
  • نرخ بهره، نه هوش مصنوعی، به عنوان عامل اصلی تغییرات بازار کار شناسایی شده است؛ از دست دادن مشاغل چندین ماه قبل از انتشار ChatGPT در نوامبر ۲۰۲۲، و پس از پایان ۱۱ سال نرخ بهره‌ی صفر، آغاز شد @GergelyOrosz
  • اقتصاددانان دانشگاه ییل دریافتند که هوش مصنوعی تاکنون هیچ تأثیر عمده‌ای بر مشاغل نداشته است؛ به طوری که تغییرات شغلی، که با شاخص عدم تشابه (dissimilarity index) اندازه‌گیری می‌شود، تنها کمی سریع‌تر از دوران کامپیوتر و اینترنت حرکت کرده است و هیچ تغییر چشمگیری در الگوهای بیکاری در میان نقش‌های در معرض هوش مصنوعی مشاهده نشده است @rohanpaul_ai
  • مایکل تروئل، مدیرعامل Cursor، فاش می‌کند که این شرکت برای تمام استخدام‌های مهندسی و طراحی، یک دوره‌ی آزمایشی کاری دو روزه در محل شرکت برگزار می‌کند تا قابلیت‌های کدبیس (codebase) سرتاسری و تناسب فرهنگی را بسنجد، حتی در شرکتی با بیش از ۲۰۰ کارمند @a16z
  • شرکت Scribe به ۷۸,۰۰۰ مشتری سازمانی، شامل ۴۵ درصد از شرکت‌های Fortune 500، دست می‌یابد که از پلتفرم آن‌ها برای ثبت و بهینه‌سازی جریان‌های کاری استفاده می‌کنند @scottbelsky

اخلاق و جامعه

  • ایتان مالیک هشدار می‌دهد که بسیاری از سیستم‌ها هنوز بر این فرض بنا شده‌اند که نگارش و تحلیل باکیفیت، سیگنال‌های پرهزینه و معناداری هستند، اما این سیستم‌ها برای این واقعیت که با وجود هوش مصنوعی این امر دیگر صادق نیست، آماده نیستند @emollick
  • اندرو کارن پیش‌بینی می‌کند که در سال ۲۰۲۶ بر سر جایگاه ردیت در اکولوژی داده، یک کشمکش سیاسی در خواهد گرفت؛ او به تنش بین تمرکز دولت بر محتوای ایدئولوژیک مجموعه‌ی داده‌های آموزشی (training corpora) و این واقعیت که OpenAI و گوگل هر کدام سالانه بیش از ۶۰ میلیون دلار برای داده‌های آموزشی به ردیت می‌پردازند، اشاره می‌کند @AndrewCurran_
  • مصطفی سلیمان تأکید می‌کند که هوش برتر باید به خاطر بشریت ساخته شود، نه فقط به خاطر خودش، و هشدار می‌دهد که اگر کنترل آن را از دست بدهیم، جهان جای بهتری نخواهد بود @mustafasuleyman

کاربردها

  • کاربران اندروید Comet از Perplexity در حال تکمیل پروژه‌های برنامه‌نویسی در Vercel از طریق تلفن‌های خود هستند، که نشان‌دهنده‌ی پتانسیل عوامل عمومی (general agents) در دستگاه‌های موبایل برای ارائه‌ی قابلیت‌های قابل توجه در حین حرکت است @AravSrinivas
  • گوگل جیمنای قابلیت‌های خود را به عنوان یک شریک مطالعاتی شخصی‌سازی‌شده برای دانش‌آموزان تبلیغ می‌کند که به آن‌ها امکان می‌دهد فایل‌های PDF، اسلایدها، عکس‌های نمودارها و یادداشت‌های دست‌نویس را بارگذاری کنند، سپس خلاصه‌ای از مطالب را ارائه دهد، مفاهیم را توضیح دهد و آزمون‌های تمرینی سفارشی ایجاد کند @GeminiApp
  • OpenAI یک سال ChatGPT Plus رایگان را برای اعضای ارتش ایالات متحده در ۱۲ ماه پس از جدایی یا بازنشستگی و همچنین برای کهنه‌سربازان ایالات متحده که در ۱۲ ماه گذشته ارتش را ترک کرده‌اند، راه‌اندازی می‌کند @kevinweil
  • سهیل به تغییر رویکرد برنامه‌نویسی با هوش مصنوعی اشاره می‌کند؛ او ترجیح می‌دهد از هوش مصنوعی بخواهد دستورالعمل‌های گام به گام برای فهمیدن را نشان دهد، به جای اینکه کد را مستقیماً بنویسد، به خصوص برای کد ML که در آن درک شکل تنسورها و تغییرات معماری حیاتی است @Suhail
  • ناتان لمبرت پژوهشی در مورد آموزش شخصیت در هوش مصنوعی منتشر می‌کند و بررسی می‌کند که ساخت شخصیت‌هایی مانند چت‌بات‌های چاپلوس چقدر آسان است و چگونه این موضوع با گذار سیستم‌ها از حالت چت به عامل‌ها (agents) تغییر خواهد کرد @natolambert

پژوهش‌ها

  • فی‌فی لی مقاله‌ای در مورد هوش فضایی به عنوان مرز بعدی هوش مصنوعی منتشر می‌کند و استدلال می‌کند که مدل‌های جهانی با هوش فضایی واقعی باید سه قابلیت اساسی را بدست آورند: ایجاد با تخیل یک داستان‌گو، ناوبری با مهارت یک امدادگر و استدلال در مورد فضا با دقت علمی @drfeifei
  • پژوهشگران Gelato-30B-A3B را منتشر می‌کنند، یک مدل پیشرفته‌ی grounding کامپیوتری که در ScreenSpot-Pro به ۶۳.۸ درصد و در OS-World-G به ۶۹.۱ درصد دست می‌یابد و از مدل‌های تخصصی مانند GTA1-32B و VLMs (مدل‌های زبان بصری) تقریباً ۸ برابر بزرگ‌تر از خود مانند Qwen3-VL-235B عملکرد بهتری دارد @anas_awadalla
  • پژوهشگران SYNTH را منتشر می‌کنند، یک مجموعه‌ی داده‌ی کاملاً مصنوعی و عمومی برای پیش‌آموزش، همراه با دو مدل جدید و پیشرفته‌ی استدلال. Baguettotron، که منحصراً بر روی این مجموعه‌ی داده با تنها ۲۰۰ میلیارد توکن آموزش دیده است، بهترین عملکرد را در محدوده‌ی اندازه‌ی خود کسب می‌کند @Dorialexander
  • مقاله‌ی مشترک دانشگاه چینهوا و دانشگاه شانگهای جیائو تونگ که در NeurIPS 2025 نمره‌ی عالی دریافت کرده است، نشان می‌دهد که یادگیری تقویتی با پاداش‌های قابل تأیید (RLVR) دقت را بهبود می‌بخشد اما الگوهای استدلالی جدید ایجاد نمی‌کند، به طوری که مدل پایه همچنان حد بالایی قابلیت استدلال را تعیین می‌کند. این پژوهش نشان می‌دهد که تقطیر (distillation)، نه RL، نشانه‌های واقعی از استدلال نوظهور را نشان می‌دهد @jiqizhixin
  • کارگروه متخصصان طولی هوش مصنوعی (LEAP) با ۳۳۹ کارشناس برجسته راه‌اندازی می‌شود که پیش‌بینی‌های ماهانه برای سه سال در مورد قابلیت‌های هوش مصنوعی، پذیرش و تأثیر آن ارائه می‌دهند. کارشناسان تا سال ۲۰۳۰ تأثیرات عمده‌ای را پیش‌بینی می‌کنند، از جمله ۷ برابر افزایش در سهم هوش مصنوعی از مصرف برق ایالات متحده و ۹ برابر افزایش در ساعت کاری با کمک هوش مصنوعی؛ و تا سال ۲۰۴۰، ۳۰ درصد از بزرگسالان به صورت روزانه از هوش مصنوعی برای مصاحبت استفاده خواهند کرد و ۶۰ درصد احتمال دارد که هوش مصنوعی یکی از مسائل جایزه‌ی هزاره را حل کند @Research_FRI
  • پژوهشگران MIT نانوذرات جدیدی را توسعه می‌دهند که تحویل mRNA را افزایش می‌دهند و به طور بالقوه دوز واکسن، هزینه‌ها و عوارض جانبی را کاهش می‌دهند، با هدف دستیابی به پاسخ‌های واکسن ایمن و مؤثر با دوزهای بسیار کمتر @MIT
  • فرانسوا شوله آخرین ویرایش کتاب «Deep Learning with Python» را منتشر می‌کند که بر ایجاد درک عمیق از طریق نظریه و مدل‌های ذهنی در کنار الگوهای برنامه‌نویسی عملی تمرکز دارد و از Keras 3 به عنوان یک API مستقل از چارچوب (framework-agnostic) همراه با JAX برای عملکرد پیشرفته استفاده می‌کند @fchollet
  • سایمون ویلیسون این پرسش را مطرح می‌کند که یک مدل زبان بزرگ (LLM) چقدر دانش ذاتی برای مفید بودن نیاز دارد، و می‌پرسد که آیا مدل‌های برنامه‌نویسی تخصصی را می‌توان با حذف دانش مفصل از تاریخ و جغرافیای انسانی کوچک‌تر کرد، با اشاره به مفهوم «هسته‌ی شناختی» (cognitive core) آندری کارپاتی @simonw
  • PyTorch اعلام می‌کند که کیت توسعه‌ی گرافیک عصبی Arm اکنون از چرخه‌ی عمر کامل ML (یادگیری ماشین) برای رندرینگ بی‌درنگ، از آموزش مبتنی بر PyTorch تا استقرار با ExecuTorch، پشتیبانی می‌کند، همانطور که در کنفرانس PyTorch 2025 به نمایش گذاشته شد @PyTorch