اخبار هوش مصنوعی در 2025-11-06

مدل‌های جدید هوش مصنوعی

  • علی‌بابا Qwen3-max-preview را منتشر می‌کند که در Arena Expert رتبه‌ی ۴ جهانی را دارد، در حالی که Qwen3-235B-A22B-Thinking-2507 در بین تمام مدل‌های متن‌باز در پرامپت‌های سطح متخصص در ۸ حوزه‌ی حیاتی رتبه‌ی ۱ را کسب کرده است @Alibaba_Qwen
  • مون‌شات (Moonshot) هوش مصنوعی Kimi K2 Thinking را عرضه می‌کند؛ یک مدل عامل تفکر متن‌باز که در HLE (با ۴۴.۹٪) و BrowseComp (با ۶۰.۲٪) به وضعیت هنری (SOTA) دست یافته و قادر به اجرای ۲۰۰ تا ۳۰۰ فراخوانی ابزار متوالی بدون دخالت انسان است و پنجره‌ی زمینه‌ی ۲۵۶ هزار توکنی دارد @Kimi_Moonshot
  • گوگل از در دسترس قرار گرفتن عمومی TPU Ironwood (نسل هفتم) خبر می‌دهد که ۱۰ برابر بهبود عملکرد اوج در مقایسه با TPU v5p و بیش از ۴ برابر عملکرد بهتر در هر تراشه برای هر دو بار کاری آموزش و استنتاج در مقایسه با TPU v6e (Trillium) دارد @sundarpichai
  • گوگل File Search Tool را در API جیمینای معرفی می‌کند؛ یک راهکار RAG میزبانی شده با فضای ذخیره‌سازی رایگان و امبدینگ‌های رایگان در زمان کوئری برای ساده‌سازی سیستم‌های هوش مصنوعی آگاه از متن @OfficialLoganK
  • Gemini Deep Research گوگل اکنون برای همه‌ی کاربران دسکتاپ مستقیماً به جیمیل، درایو، داکس و چت متصل می‌شود و امکان تحلیل بازار و گزارش‌های رقبا را با ترکیب ترندهای زنده‌ی وب با اسناد داخلی فراهم می‌کند @GeminiApp
  • اوپن‌ای‌آی (OpenAI) قابلیت قطع کردن کوئری‌های طولانی و افزودن زمینه‌ی جدید بدون راه‌اندازی مجدد یا از دست دادن پیشرفت را معرفی می‌کند؛ قابلیتی که به ویژه برای اصلاح کوئری‌های Deep Research یا o1 Pro مفید است @OpenAI
  • پرپلکسیتی (Perplexity) از ارتقاء‌های عمده برای Comet Assistant خبر می‌دهد که با ۲۳٪ بهبود عملکرد، قادر به مدیریت گردش‌کارهای پیچیده‌تر چند سایتی است، در حالی که به صورت موازی در چندین تب کار می‌کند @perplexity_ai
  • اینسپشن لبز (Inception Labs) برای مدل Mercury، ۵۰ میلیون دلار در دور سرمایه‌گذاری اولیه (seed round) جمع‌آوری می‌کند و به کدنویسی هوش مصنوعی ۱۰ برابر سریع‌تر و ۱۰ برابر ارزان‌تر با عملکردی مطابق با Gemini Flash/Haiku دست می‌یابد و بازی‌هایی مانند Connect 4 را تقریباً در ۲ ثانیه با استفاده از مدل‌های انتشار جدید برای کد پیاده‌سازی می‌کند @deedydas
  • مایکروسافت ریسرچ (Microsoft Research) Agentic Mode را در Data Formulator در Azure AI Foundry Labs منتشر می‌کند و به کاربران امکان می‌دهد تا نمودارها را به‌روزرسانی کنند، توصیه‌هایی دریافت کنند و گزارش‌هایی مبتنی بر کاوش داده‌ها ایجاد کنند @MSFTResearch
  • گوگل دیپ‌مایند (Google DeepMind) Lyria RealTime API را در Google AI Studio راه‌اندازی می‌کند تا توسعه‌دهندگان بتوانند اپلیکیشن‌هایی برای خلق و اجرای موسیقی بی‌کلام تعاملی بسازند که از طریق اپلیکیشن وب Space DJ به نمایش گذاشته شده است @GoogleDeepMind

تحلیل صنعت

  • اندرو اِن‌جی هشدار می‌دهد که ارائه‌دهندگان SaaS در حال ایجاد سیلوهای داده و دریافت هزینه‌های بالا (بیش از ۲۰,۰۰۰ دلار برای کلیدهای API) هستند تا از دسترسی مشتریان به داده‌های خود برای گردش‌کارهای عامل هوش مصنوعی جلوگیری کنند، و به کسب‌وکارها توصیه می‌کند که برای به حداکثر رساندن قابلیت‌های هوش مصنوعی، کنترل داده‌های خود را در دست بگیرند @AndrewYNg
  • پرپلکسیتی از همکاری با اسنپ‌چت خبر می‌دهد که طبق آن پرپلکسیتی از ژانویه ۲۰۲۶ هوش مصنوعی پیش‌فرض برای همه‌ی کاربران اسنپ‌چت خواهد بود و اسنپ ۴۰۰ میلیون دلار برای این یکپارچه‌سازی پرداخت خواهد کرد @perplexity_ai
  • اپل ۱ میلیارد دلار به گوگل پرداخت می‌کند تا از یک Gemini با برند سفید (whitelabeled) برای تقویت سیری (Siri) استفاده کند که این اقدام ارزش دیده‌شدن پلتفرم و توزیع را نشان می‌دهد @GergelyOrosz
  • فیگما (Figma) با ۳۸٪ رشد درآمد سال به سال، از نرخ درآمد سالانه ۱ میلیارد دلاری عبور می‌کند و سرمایه‌گذاری‌های هوش مصنوعی مانند Figma Make و MCP نتایج مثبتی به بار آورده‌اند @zoink
  • AI Studio به ۲.۱ میلیون کاربر «وایب کدینگ» (vibe coding) می‌رسد که هر روز صدها هزار اپلیکیشن ساخته می‌شود @OfficialLoganK
  • جیمی دایمن در مجمع کسب‌وکار آمریکا (America Business Forum) از مردم می‌خواهد هوش مصنوعی را بپذیرند و پیش‌بینی می‌کند که هفته‌ی کاری ۳.۵ روزه خواهد شد @AndrewCurran_
  • آمار بقای استارت‌آپ‌ها نشان می‌دهد که ۴۰٪ پس از دور سرمایه‌گذاری اولیه (seed round)، ۵۰٪ از باقی‌مانده پس از سری A، ۶۰٪ پس از سری B و ۵۸٪ پس از سری C از بین می‌روند؛ با تقریباً ۲.۵٪ خریداری شده و ۰.۵ تا ۱٪ بر اساس داده‌های سال‌های ۲۰۱۶-۲۰۱۸ در یک بازه‌ی ۱۰ ساله، به IPO می‌رسند @deedydas
  • سومیث چینتالا (Soumith Chintala) پس از ۱۱ سال، خروج خود را از متا (Meta) و پای‌تورچ (PyTorch) اعلام می‌کند و از رهبری پای‌تورچ کناره‌گیری می‌کند که بیش از ۹۰٪ پذیرش در هوش مصنوعی را کسب کرده و مدل‌های بنیادین را در تقریباً تمام شرکت‌های بزرگ هوش مصنوعی پشتیبانی می‌کند @soumithchintala
  • سم آلتمن شفاف‌سازی می‌کند که اوپن‌ای‌آی به دنبال تضمین‌های دولتی برای مراکز داده نیست و انتظار دارد سال را با درآمد سالانه‌ی بیش از ۲۰ میلیارد دلار به پایان برساند و تا سال ۲۰۳۰ به صدها میلیارد دلار رشد کند، با ۱.۴ تریلیون دلار تعهدات زیرساختی در ۸ سال آینده @sama

اخلاق و جامعه

  • اوپن‌ای‌آی اعلام می‌کند که خطرات سیستم‌های فوق هوشمند را بالقوه فاجعه‌بار می‌داند و معتقد است که مطالعه‌ی تجربی ایمنی و هم‌راستاسازی (alignment) می‌تواند به تصمیم‌گیری‌های جهانی کمک کند، از جمله اینکه آیا این حوزه باید توسعه را برای مطالعه‌ی سیستم‌های قادر به خودبهبودی بازگشتی (recursive self-improvement) کُند کند یا خیر @AndrewCurran_
  • مایکروسافت هوش مصنوعی از تشکیل تیم فوق هوش (Superintelligence Team) با تمرکز بر Humanist Superintelligence (HSI) خبر می‌دهد که به عنوان قابلیت‌های هوش مصنوعی فوق‌العاده پیشرفته‌ای تعریف می‌شود که همیشه در خدمت مردم و بشریت کار می‌کنند، با تأکید بر سیستم‌های خاص دامنه که با دقت کالیبره شده و در محدودیت‌ها زمینه‌سازی شده‌اند @mustafasuleyman
  • مصطفی سلیمان تأکید می‌کند که مایکروسافت هوش مصنوعی در حال ساخت یک فوق هوش مبهم و غیرمادی نیست، بلکه یک فناوری کاربردی است که صراحتاً فقط برای خدمت به بشریت طراحی شده است و بیان می‌کند که نمی‌خواهد در دنیایی زندگی کند که هوش مصنوعی از بشریت فراتر رود @mustafasuleyman
  • پژوهش‌ها نشان می‌دهد که مدل‌های پیشرفته‌ی هوش مصنوعی با مواجهه با اطلاعات جدید و تعامل با افراد، باورهای خود را تغییر می‌دهند؛ با این حال، اقناع فعال (active persuasion) مؤثر است، اما تأثیرات از زمینه‌ی کلی ناشی می‌شوند که این امر مسائل هم‌راستاسازی را مطرح کرده و نشان می‌دهد که چرا سئو (SEO) برای عامل‌ها ساده نیست @emollick
  • ایتان مولیک (Ethan Mollick) این سؤال را مطرح می‌کند که پیروزی در رقابت بین‌المللی هوش مصنوعی به چه معناست و خاطرنشان می‌کند که سیاست‌گذاران بر اساس سایر تصمیمات، به نظر نمی‌رسد به سناریوی «برخاست» (takeoff scenario) اعتقاد داشته باشند و بدون یک «اوج‌گیری» (apotheosis) به عنوان خط پایان، مشخص نیست که به سوی چه چیزی در حال رقابت هستیم @emollick

کاربردها

  • اندرو اِن‌جی گزارش می‌دهد که عامل‌های هوش مصنوعی در بررسی انواع مختلف داده در کسب‌وکارها برای شناسایی الگوها و ایجاد ارزش، بهتر شده‌اند، که این امر سیلوهای داده را به طور فزاینده‌ای دردسرساز می‌کند و ارزش اتصال نقاط بین قطعات مختلف داده بیش از همیشه است @AndrewYNg
  • حَمِل حسین (Hamel Husain) یک ترفند کدنویسی هوش مصنوعی را با استفاده از قابلیت «کتابدار» (librarian) اَمپ (Amp) برای بررسی کد و وابستگی‌ها با اهداف مشخص نشان می‌دهد؛ با حفظ رشته‌های باز و انشعاب دادن آن‌ها برای زمینه‌ی بهتر @HamelHusain
  • سایمون ویلیسون (Simon Willison) فرآیند استفاده از عامل‌های کدنویس برای کارهای پژوهشی کد را به اشتراک می‌گذارد؛ با یک مخزن گیت‌هاب (GitHub repo) تحقیقاتی اختصاصی که در آن عامل‌ها آزمایش‌های دقیق را انجام می‌دهند و نتایج را می‌نویسند و فایل README به طور خودکار توسط LLM به‌روزرسانی می‌شود تا خلاصه‌ها را شامل شود @simonw
  • لینیر (Linear) به ابزار ورودی تبدیل می‌شود که از طریق آن کار یا بازخورد به انسان‌ها و عامل‌ها هماهنگ‌تر می‌شود @karrisaarinen
  • بیلیون‌تو‌وان (BillionToOne) با یک آزمایش ژنتیکی عمومی می‌شود که اکنون به غربالگری ۱ از ۱۱ نوزاد آمریکایی کمک می‌کند و امکان تشخیص زودهنگام را از مراقبت‌های دوران بارداری تا سرطان فراهم می‌آورد @ycombinator
  • آزمایشگاه رسانه‌ی ام‌آی‌تی (MIT Media Lab) دستگاه‌های نانوالکترونیکی کوچکی به نام «سیرکولاترونیکس» (circulatronics) را توسعه می‌دهد که به طور خودمختار مناطق بیمار در مغز را شناسایی و هدف قرار می‌دهند و خود را کاشته (self-implant) می‌کنند تا تحریک دقیق مغزی را فراهم آورند و به طور بالقوه ایمپلنت‌های درمانی مغز را بدون نیاز به جراحی در دسترس قرار می‌دهند @medialab

پژوهش‌ها

  • مایکروسافت ریسرچ از همکاری PIKE-RAG با Signify خبر می‌دهد که ۱۲٪ افزایش دقت را برای سیستم‌های دانش سازمانی نشان می‌دهد و پاسخ‌های سریع‌تر و قابل اعتمادتر ارائه می‌دهد @MSFTResearch
  • vLLM اکنون به طور کامل از مدل‌های ترکیبی مانند Qwen3-Next، Nemotron Nano 2 و Granite 4.0 پشتیبانی می‌کند و آن‌ها را از حالت «هک‌های تجربی» در نسخه‌ی V0 به «شهروندان درجه یک» در نسخه‌ی V1 ارتقا می‌دهد @PyTorch
  • KernelFalcon به ۱۰۰٪ دقت در همه‌ی ۲۵۰ وظیفه‌ی KernelBench L1-L3 دست می‌یابد؛ از طریق معماری عامل عمیق که تجزیه‌ی وظایف سلسله‌مراتبی (hierarchical task decomposition)، هماهنگ‌سازی قطعی (deterministic orchestration)، اجرای مستدل (grounded execution) و تأیید موازی را برای تولید کرنل‌های (kernels) GPU ترکیب می‌کند @PyTorch
  • پژوهشی روی AlphaEvolve برای کاوش ریاضی در مقیاس وسیع، روی ۶۷ مسئله آزمایش شد و تمامی موفقیت‌ها و شکست‌ها در همکاری بین ام‌آی‌تی (MIT)، ولزلی (Wellesley)، هاروارد (Harvard) و گوگل دیپ‌مایند (Google DeepMind) مستندسازی شد @GoogleDeepMind
  • مطالعه‌ای نشان می‌دهد که LLMها (مدل‌های زبان بزرگ) بر کارهای اخیر در شبیه‌سازی رفتارهای انسانی مسلط بوده‌اند، اما شبکه‌های عصبی گراف (GNN) سبک‌وزن می‌توانند در تنظیمات انتخاب گسسته (discrete-choice settings) با روش‌های قوی مبتنی بر LLM برابری کنند یا آن‌ها را شکست دهند @berkeley_ai
  • مقاله‌ی جدیدی WIMHF (What's In My Human Feedback) را با استفاده از SAEها معرفی می‌کند تا به طور خودکار سیگنال‌ها را از داده‌های ترجیحی استخراج کند و تغییرات غیرمنتظره/مضر در LLMها مانند خودبزرگ‌بینی یا تملق را پیش از موعد پیش‌بینی کند @berkeley_ai
  • پژوهش نشان می‌دهد که هر وظیفه‌ای که هوش مصنوعی مرزی (frontier AI) امروز تا حدودی قادر به انجام آن است، به احتمال زیاد یک سال دیگر می‌تواند آن را به طور قابل اعتماد انجام دهد @gdb