اخبار هوش مصنوعی در 2025-11-10
مدلهای جدید هوش مصنوعی
- متا Omnilingual ASR را منتشر میکند، مجموعهای از مدلهای تشخیص خودکار گفتار که از بیش از ۱۶۰۰ زبان، از جمله ۵۰۰ زبان با پوشش کم که قبلاً توسط هیچ سیستم ASR دیگری پشتیبانی نشده بودند، پشتیبانی میکند. این انتشار شامل مدلهایی با اندازهی پارامتر از ۳۰۰ میلیون تا ۷ میلیارد، یک مدل نمایش گفتار چندزبانهی ۷ میلیارد پارامتری (Omnilingual w2v 2.0) و یک مجموعهی داده است که ۳۵۰ زبان محروم را پوشش میدهد @AIatMeta
تحلیل صنعت
- شرکت گاما به سودآوری ۱۰۰ میلیون دلار ARR تنها با ۵۰ کارمند (۲ میلیون دلار ARR به ازای هر کارمند) دست مییابد و به ارزش ۲.۱ میلیارد دلار در دور تأمین مالی سری B به رهبری a16z میرسد که نشاندهندهی کارایی شرکتهای بومی هوش مصنوعی در ایجاد تحول در دستهبندیهای جاافتاده مانند نرمافزار ارائهی مطلب است @thisisgrantlee
- شرکتهای سرمایهگذاری خطرپذیر به طور فزایندهای برای حفظ رقابتپذیری، کل فرایند بررسی دقیق (due diligence) را کنار میگذارند، با نمونههایی از جمله پیشنهاد ۱۰ میلیون دلاری به یک استارتاپ ثبتنشده و بستهشدن یک دور سری A ۲۰ میلیون دلاری در ۲ روز بدون هیچگونه دسترسی به اتاق داده @deedydas
- نرخ بهره، نه هوش مصنوعی، به عنوان عامل اصلی تغییرات بازار کار شناسایی شده است؛ از دست دادن مشاغل چندین ماه قبل از انتشار ChatGPT در نوامبر ۲۰۲۲، و پس از پایان ۱۱ سال نرخ بهرهی صفر، آغاز شد @GergelyOrosz
- اقتصاددانان دانشگاه ییل دریافتند که هوش مصنوعی تاکنون هیچ تأثیر عمدهای بر مشاغل نداشته است؛ به طوری که تغییرات شغلی، که با شاخص عدم تشابه (dissimilarity index) اندازهگیری میشود، تنها کمی سریعتر از دوران کامپیوتر و اینترنت حرکت کرده است و هیچ تغییر چشمگیری در الگوهای بیکاری در میان نقشهای در معرض هوش مصنوعی مشاهده نشده است @rohanpaul_ai
- مایکل تروئل، مدیرعامل Cursor، فاش میکند که این شرکت برای تمام استخدامهای مهندسی و طراحی، یک دورهی آزمایشی کاری دو روزه در محل شرکت برگزار میکند تا قابلیتهای کدبیس (codebase) سرتاسری و تناسب فرهنگی را بسنجد، حتی در شرکتی با بیش از ۲۰۰ کارمند @a16z
- شرکت Scribe به ۷۸,۰۰۰ مشتری سازمانی، شامل ۴۵ درصد از شرکتهای Fortune 500، دست مییابد که از پلتفرم آنها برای ثبت و بهینهسازی جریانهای کاری استفاده میکنند @scottbelsky
اخلاق و جامعه
- ایتان مالیک هشدار میدهد که بسیاری از سیستمها هنوز بر این فرض بنا شدهاند که نگارش و تحلیل باکیفیت، سیگنالهای پرهزینه و معناداری هستند، اما این سیستمها برای این واقعیت که با وجود هوش مصنوعی این امر دیگر صادق نیست، آماده نیستند @emollick
- اندرو کارن پیشبینی میکند که در سال ۲۰۲۶ بر سر جایگاه ردیت در اکولوژی داده، یک کشمکش سیاسی در خواهد گرفت؛ او به تنش بین تمرکز دولت بر محتوای ایدئولوژیک مجموعهی دادههای آموزشی (training corpora) و این واقعیت که OpenAI و گوگل هر کدام سالانه بیش از ۶۰ میلیون دلار برای دادههای آموزشی به ردیت میپردازند، اشاره میکند @AndrewCurran_
- مصطفی سلیمان تأکید میکند که هوش برتر باید به خاطر بشریت ساخته شود، نه فقط به خاطر خودش، و هشدار میدهد که اگر کنترل آن را از دست بدهیم، جهان جای بهتری نخواهد بود @mustafasuleyman
کاربردها
- کاربران اندروید Comet از Perplexity در حال تکمیل پروژههای برنامهنویسی در Vercel از طریق تلفنهای خود هستند، که نشاندهندهی پتانسیل عوامل عمومی (general agents) در دستگاههای موبایل برای ارائهی قابلیتهای قابل توجه در حین حرکت است @AravSrinivas
- گوگل جیمنای قابلیتهای خود را به عنوان یک شریک مطالعاتی شخصیسازیشده برای دانشآموزان تبلیغ میکند که به آنها امکان میدهد فایلهای PDF، اسلایدها، عکسهای نمودارها و یادداشتهای دستنویس را بارگذاری کنند، سپس خلاصهای از مطالب را ارائه دهد، مفاهیم را توضیح دهد و آزمونهای تمرینی سفارشی ایجاد کند @GeminiApp
- OpenAI یک سال ChatGPT Plus رایگان را برای اعضای ارتش ایالات متحده در ۱۲ ماه پس از جدایی یا بازنشستگی و همچنین برای کهنهسربازان ایالات متحده که در ۱۲ ماه گذشته ارتش را ترک کردهاند، راهاندازی میکند @kevinweil
- سهیل به تغییر رویکرد برنامهنویسی با هوش مصنوعی اشاره میکند؛ او ترجیح میدهد از هوش مصنوعی بخواهد دستورالعملهای گام به گام برای فهمیدن را نشان دهد، به جای اینکه کد را مستقیماً بنویسد، به خصوص برای کد ML که در آن درک شکل تنسورها و تغییرات معماری حیاتی است @Suhail
- ناتان لمبرت پژوهشی در مورد آموزش شخصیت در هوش مصنوعی منتشر میکند و بررسی میکند که ساخت شخصیتهایی مانند چتباتهای چاپلوس چقدر آسان است و چگونه این موضوع با گذار سیستمها از حالت چت به عاملها (agents) تغییر خواهد کرد @natolambert
پژوهشها
- فیفی لی مقالهای در مورد هوش فضایی به عنوان مرز بعدی هوش مصنوعی منتشر میکند و استدلال میکند که مدلهای جهانی با هوش فضایی واقعی باید سه قابلیت اساسی را بدست آورند: ایجاد با تخیل یک داستانگو، ناوبری با مهارت یک امدادگر و استدلال در مورد فضا با دقت علمی @drfeifei
- پژوهشگران Gelato-30B-A3B را منتشر میکنند، یک مدل پیشرفتهی grounding کامپیوتری که در ScreenSpot-Pro به ۶۳.۸ درصد و در OS-World-G به ۶۹.۱ درصد دست مییابد و از مدلهای تخصصی مانند GTA1-32B و VLMs (مدلهای زبان بصری) تقریباً ۸ برابر بزرگتر از خود مانند Qwen3-VL-235B عملکرد بهتری دارد @anas_awadalla
- پژوهشگران SYNTH را منتشر میکنند، یک مجموعهی دادهی کاملاً مصنوعی و عمومی برای پیشآموزش، همراه با دو مدل جدید و پیشرفتهی استدلال. Baguettotron، که منحصراً بر روی این مجموعهی داده با تنها ۲۰۰ میلیارد توکن آموزش دیده است، بهترین عملکرد را در محدودهی اندازهی خود کسب میکند @Dorialexander
- مقالهی مشترک دانشگاه چینهوا و دانشگاه شانگهای جیائو تونگ که در NeurIPS 2025 نمرهی عالی دریافت کرده است، نشان میدهد که یادگیری تقویتی با پاداشهای قابل تأیید (RLVR) دقت را بهبود میبخشد اما الگوهای استدلالی جدید ایجاد نمیکند، به طوری که مدل پایه همچنان حد بالایی قابلیت استدلال را تعیین میکند. این پژوهش نشان میدهد که تقطیر (distillation)، نه RL، نشانههای واقعی از استدلال نوظهور را نشان میدهد @jiqizhixin
- کارگروه متخصصان طولی هوش مصنوعی (LEAP) با ۳۳۹ کارشناس برجسته راهاندازی میشود که پیشبینیهای ماهانه برای سه سال در مورد قابلیتهای هوش مصنوعی، پذیرش و تأثیر آن ارائه میدهند. کارشناسان تا سال ۲۰۳۰ تأثیرات عمدهای را پیشبینی میکنند، از جمله ۷ برابر افزایش در سهم هوش مصنوعی از مصرف برق ایالات متحده و ۹ برابر افزایش در ساعت کاری با کمک هوش مصنوعی؛ و تا سال ۲۰۴۰، ۳۰ درصد از بزرگسالان به صورت روزانه از هوش مصنوعی برای مصاحبت استفاده خواهند کرد و ۶۰ درصد احتمال دارد که هوش مصنوعی یکی از مسائل جایزهی هزاره را حل کند @Research_FRI
- پژوهشگران MIT نانوذرات جدیدی را توسعه میدهند که تحویل mRNA را افزایش میدهند و به طور بالقوه دوز واکسن، هزینهها و عوارض جانبی را کاهش میدهند، با هدف دستیابی به پاسخهای واکسن ایمن و مؤثر با دوزهای بسیار کمتر @MIT
- فرانسوا شوله آخرین ویرایش کتاب «Deep Learning with Python» را منتشر میکند که بر ایجاد درک عمیق از طریق نظریه و مدلهای ذهنی در کنار الگوهای برنامهنویسی عملی تمرکز دارد و از Keras 3 به عنوان یک API مستقل از چارچوب (framework-agnostic) همراه با JAX برای عملکرد پیشرفته استفاده میکند @fchollet
- سایمون ویلیسون این پرسش را مطرح میکند که یک مدل زبان بزرگ (LLM) چقدر دانش ذاتی برای مفید بودن نیاز دارد، و میپرسد که آیا مدلهای برنامهنویسی تخصصی را میتوان با حذف دانش مفصل از تاریخ و جغرافیای انسانی کوچکتر کرد، با اشاره به مفهوم «هستهی شناختی» (cognitive core) آندری کارپاتی @simonw
- PyTorch اعلام میکند که کیت توسعهی گرافیک عصبی Arm اکنون از چرخهی عمر کامل ML (یادگیری ماشین) برای رندرینگ بیدرنگ، از آموزش مبتنی بر PyTorch تا استقرار با ExecuTorch، پشتیبانی میکند، همانطور که در کنفرانس PyTorch 2025 به نمایش گذاشته شد @PyTorch