اخبار هوش مصنوعی در 2025-11-06
مدلهای جدید هوش مصنوعی
- علیبابا Qwen3-max-preview را منتشر میکند که در Arena Expert رتبهی ۴ جهانی را دارد، در حالی که Qwen3-235B-A22B-Thinking-2507 در بین تمام مدلهای متنباز در پرامپتهای سطح متخصص در ۸ حوزهی حیاتی رتبهی ۱ را کسب کرده است @Alibaba_Qwen
- مونشات (Moonshot) هوش مصنوعی Kimi K2 Thinking را عرضه میکند؛ یک مدل عامل تفکر متنباز که در HLE (با ۴۴.۹٪) و BrowseComp (با ۶۰.۲٪) به وضعیت هنری (SOTA) دست یافته و قادر به اجرای ۲۰۰ تا ۳۰۰ فراخوانی ابزار متوالی بدون دخالت انسان است و پنجرهی زمینهی ۲۵۶ هزار توکنی دارد @Kimi_Moonshot
- گوگل از در دسترس قرار گرفتن عمومی TPU Ironwood (نسل هفتم) خبر میدهد که ۱۰ برابر بهبود عملکرد اوج در مقایسه با TPU v5p و بیش از ۴ برابر عملکرد بهتر در هر تراشه برای هر دو بار کاری آموزش و استنتاج در مقایسه با TPU v6e (Trillium) دارد @sundarpichai
- گوگل File Search Tool را در API جیمینای معرفی میکند؛ یک راهکار RAG میزبانی شده با فضای ذخیرهسازی رایگان و امبدینگهای رایگان در زمان کوئری برای سادهسازی سیستمهای هوش مصنوعی آگاه از متن @OfficialLoganK
- Gemini Deep Research گوگل اکنون برای همهی کاربران دسکتاپ مستقیماً به جیمیل، درایو، داکس و چت متصل میشود و امکان تحلیل بازار و گزارشهای رقبا را با ترکیب ترندهای زندهی وب با اسناد داخلی فراهم میکند @GeminiApp
- اوپنایآی (OpenAI) قابلیت قطع کردن کوئریهای طولانی و افزودن زمینهی جدید بدون راهاندازی مجدد یا از دست دادن پیشرفت را معرفی میکند؛ قابلیتی که به ویژه برای اصلاح کوئریهای Deep Research یا o1 Pro مفید است @OpenAI
- پرپلکسیتی (Perplexity) از ارتقاءهای عمده برای Comet Assistant خبر میدهد که با ۲۳٪ بهبود عملکرد، قادر به مدیریت گردشکارهای پیچیدهتر چند سایتی است، در حالی که به صورت موازی در چندین تب کار میکند @perplexity_ai
- اینسپشن لبز (Inception Labs) برای مدل Mercury، ۵۰ میلیون دلار در دور سرمایهگذاری اولیه (seed round) جمعآوری میکند و به کدنویسی هوش مصنوعی ۱۰ برابر سریعتر و ۱۰ برابر ارزانتر با عملکردی مطابق با Gemini Flash/Haiku دست مییابد و بازیهایی مانند Connect 4 را تقریباً در ۲ ثانیه با استفاده از مدلهای انتشار جدید برای کد پیادهسازی میکند @deedydas
- مایکروسافت ریسرچ (Microsoft Research) Agentic Mode را در Data Formulator در Azure AI Foundry Labs منتشر میکند و به کاربران امکان میدهد تا نمودارها را بهروزرسانی کنند، توصیههایی دریافت کنند و گزارشهایی مبتنی بر کاوش دادهها ایجاد کنند @MSFTResearch
- گوگل دیپمایند (Google DeepMind) Lyria RealTime API را در Google AI Studio راهاندازی میکند تا توسعهدهندگان بتوانند اپلیکیشنهایی برای خلق و اجرای موسیقی بیکلام تعاملی بسازند که از طریق اپلیکیشن وب Space DJ به نمایش گذاشته شده است @GoogleDeepMind
تحلیل صنعت
- اندرو اِنجی هشدار میدهد که ارائهدهندگان SaaS در حال ایجاد سیلوهای داده و دریافت هزینههای بالا (بیش از ۲۰,۰۰۰ دلار برای کلیدهای API) هستند تا از دسترسی مشتریان به دادههای خود برای گردشکارهای عامل هوش مصنوعی جلوگیری کنند، و به کسبوکارها توصیه میکند که برای به حداکثر رساندن قابلیتهای هوش مصنوعی، کنترل دادههای خود را در دست بگیرند @AndrewYNg
- پرپلکسیتی از همکاری با اسنپچت خبر میدهد که طبق آن پرپلکسیتی از ژانویه ۲۰۲۶ هوش مصنوعی پیشفرض برای همهی کاربران اسنپچت خواهد بود و اسنپ ۴۰۰ میلیون دلار برای این یکپارچهسازی پرداخت خواهد کرد @perplexity_ai
- اپل ۱ میلیارد دلار به گوگل پرداخت میکند تا از یک Gemini با برند سفید (whitelabeled) برای تقویت سیری (Siri) استفاده کند که این اقدام ارزش دیدهشدن پلتفرم و توزیع را نشان میدهد @GergelyOrosz
- فیگما (Figma) با ۳۸٪ رشد درآمد سال به سال، از نرخ درآمد سالانه ۱ میلیارد دلاری عبور میکند و سرمایهگذاریهای هوش مصنوعی مانند Figma Make و MCP نتایج مثبتی به بار آوردهاند @zoink
- AI Studio به ۲.۱ میلیون کاربر «وایب کدینگ» (vibe coding) میرسد که هر روز صدها هزار اپلیکیشن ساخته میشود @OfficialLoganK
- جیمی دایمن در مجمع کسبوکار آمریکا (America Business Forum) از مردم میخواهد هوش مصنوعی را بپذیرند و پیشبینی میکند که هفتهی کاری ۳.۵ روزه خواهد شد @AndrewCurran_
- آمار بقای استارتآپها نشان میدهد که ۴۰٪ پس از دور سرمایهگذاری اولیه (seed round)، ۵۰٪ از باقیمانده پس از سری A، ۶۰٪ پس از سری B و ۵۸٪ پس از سری C از بین میروند؛ با تقریباً ۲.۵٪ خریداری شده و ۰.۵ تا ۱٪ بر اساس دادههای سالهای ۲۰۱۶-۲۰۱۸ در یک بازهی ۱۰ ساله، به IPO میرسند @deedydas
- سومیث چینتالا (Soumith Chintala) پس از ۱۱ سال، خروج خود را از متا (Meta) و پایتورچ (PyTorch) اعلام میکند و از رهبری پایتورچ کنارهگیری میکند که بیش از ۹۰٪ پذیرش در هوش مصنوعی را کسب کرده و مدلهای بنیادین را در تقریباً تمام شرکتهای بزرگ هوش مصنوعی پشتیبانی میکند @soumithchintala
- سم آلتمن شفافسازی میکند که اوپنایآی به دنبال تضمینهای دولتی برای مراکز داده نیست و انتظار دارد سال را با درآمد سالانهی بیش از ۲۰ میلیارد دلار به پایان برساند و تا سال ۲۰۳۰ به صدها میلیارد دلار رشد کند، با ۱.۴ تریلیون دلار تعهدات زیرساختی در ۸ سال آینده @sama
اخلاق و جامعه
- اوپنایآی اعلام میکند که خطرات سیستمهای فوق هوشمند را بالقوه فاجعهبار میداند و معتقد است که مطالعهی تجربی ایمنی و همراستاسازی (alignment) میتواند به تصمیمگیریهای جهانی کمک کند، از جمله اینکه آیا این حوزه باید توسعه را برای مطالعهی سیستمهای قادر به خودبهبودی بازگشتی (recursive self-improvement) کُند کند یا خیر @AndrewCurran_
- مایکروسافت هوش مصنوعی از تشکیل تیم فوق هوش (Superintelligence Team) با تمرکز بر Humanist Superintelligence (HSI) خبر میدهد که به عنوان قابلیتهای هوش مصنوعی فوقالعاده پیشرفتهای تعریف میشود که همیشه در خدمت مردم و بشریت کار میکنند، با تأکید بر سیستمهای خاص دامنه که با دقت کالیبره شده و در محدودیتها زمینهسازی شدهاند @mustafasuleyman
- مصطفی سلیمان تأکید میکند که مایکروسافت هوش مصنوعی در حال ساخت یک فوق هوش مبهم و غیرمادی نیست، بلکه یک فناوری کاربردی است که صراحتاً فقط برای خدمت به بشریت طراحی شده است و بیان میکند که نمیخواهد در دنیایی زندگی کند که هوش مصنوعی از بشریت فراتر رود @mustafasuleyman
- پژوهشها نشان میدهد که مدلهای پیشرفتهی هوش مصنوعی با مواجهه با اطلاعات جدید و تعامل با افراد، باورهای خود را تغییر میدهند؛ با این حال، اقناع فعال (active persuasion) مؤثر است، اما تأثیرات از زمینهی کلی ناشی میشوند که این امر مسائل همراستاسازی را مطرح کرده و نشان میدهد که چرا سئو (SEO) برای عاملها ساده نیست @emollick
- ایتان مولیک (Ethan Mollick) این سؤال را مطرح میکند که پیروزی در رقابت بینالمللی هوش مصنوعی به چه معناست و خاطرنشان میکند که سیاستگذاران بر اساس سایر تصمیمات، به نظر نمیرسد به سناریوی «برخاست» (takeoff scenario) اعتقاد داشته باشند و بدون یک «اوجگیری» (apotheosis) به عنوان خط پایان، مشخص نیست که به سوی چه چیزی در حال رقابت هستیم @emollick
کاربردها
- اندرو اِنجی گزارش میدهد که عاملهای هوش مصنوعی در بررسی انواع مختلف داده در کسبوکارها برای شناسایی الگوها و ایجاد ارزش، بهتر شدهاند، که این امر سیلوهای داده را به طور فزایندهای دردسرساز میکند و ارزش اتصال نقاط بین قطعات مختلف داده بیش از همیشه است @AndrewYNg
- حَمِل حسین (Hamel Husain) یک ترفند کدنویسی هوش مصنوعی را با استفاده از قابلیت «کتابدار» (librarian) اَمپ (Amp) برای بررسی کد و وابستگیها با اهداف مشخص نشان میدهد؛ با حفظ رشتههای باز و انشعاب دادن آنها برای زمینهی بهتر @HamelHusain
- سایمون ویلیسون (Simon Willison) فرآیند استفاده از عاملهای کدنویس برای کارهای پژوهشی کد را به اشتراک میگذارد؛ با یک مخزن گیتهاب (GitHub repo) تحقیقاتی اختصاصی که در آن عاملها آزمایشهای دقیق را انجام میدهند و نتایج را مینویسند و فایل README به طور خودکار توسط LLM بهروزرسانی میشود تا خلاصهها را شامل شود @simonw
- لینیر (Linear) به ابزار ورودی تبدیل میشود که از طریق آن کار یا بازخورد به انسانها و عاملها هماهنگتر میشود @karrisaarinen
- بیلیونتووان (BillionToOne) با یک آزمایش ژنتیکی عمومی میشود که اکنون به غربالگری ۱ از ۱۱ نوزاد آمریکایی کمک میکند و امکان تشخیص زودهنگام را از مراقبتهای دوران بارداری تا سرطان فراهم میآورد @ycombinator
- آزمایشگاه رسانهی امآیتی (MIT Media Lab) دستگاههای نانوالکترونیکی کوچکی به نام «سیرکولاترونیکس» (circulatronics) را توسعه میدهد که به طور خودمختار مناطق بیمار در مغز را شناسایی و هدف قرار میدهند و خود را کاشته (self-implant) میکنند تا تحریک دقیق مغزی را فراهم آورند و به طور بالقوه ایمپلنتهای درمانی مغز را بدون نیاز به جراحی در دسترس قرار میدهند @medialab
پژوهشها
- مایکروسافت ریسرچ از همکاری PIKE-RAG با Signify خبر میدهد که ۱۲٪ افزایش دقت را برای سیستمهای دانش سازمانی نشان میدهد و پاسخهای سریعتر و قابل اعتمادتر ارائه میدهد @MSFTResearch
- vLLM اکنون به طور کامل از مدلهای ترکیبی مانند Qwen3-Next، Nemotron Nano 2 و Granite 4.0 پشتیبانی میکند و آنها را از حالت «هکهای تجربی» در نسخهی V0 به «شهروندان درجه یک» در نسخهی V1 ارتقا میدهد @PyTorch
- KernelFalcon به ۱۰۰٪ دقت در همهی ۲۵۰ وظیفهی KernelBench L1-L3 دست مییابد؛ از طریق معماری عامل عمیق که تجزیهی وظایف سلسلهمراتبی (hierarchical task decomposition)، هماهنگسازی قطعی (deterministic orchestration)، اجرای مستدل (grounded execution) و تأیید موازی را برای تولید کرنلهای (kernels) GPU ترکیب میکند @PyTorch
- پژوهشی روی AlphaEvolve برای کاوش ریاضی در مقیاس وسیع، روی ۶۷ مسئله آزمایش شد و تمامی موفقیتها و شکستها در همکاری بین امآیتی (MIT)، ولزلی (Wellesley)، هاروارد (Harvard) و گوگل دیپمایند (Google DeepMind) مستندسازی شد @GoogleDeepMind
- مطالعهای نشان میدهد که LLMها (مدلهای زبان بزرگ) بر کارهای اخیر در شبیهسازی رفتارهای انسانی مسلط بودهاند، اما شبکههای عصبی گراف (GNN) سبکوزن میتوانند در تنظیمات انتخاب گسسته (discrete-choice settings) با روشهای قوی مبتنی بر LLM برابری کنند یا آنها را شکست دهند @berkeley_ai
- مقالهی جدیدی WIMHF (What's In My Human Feedback) را با استفاده از SAEها معرفی میکند تا به طور خودکار سیگنالها را از دادههای ترجیحی استخراج کند و تغییرات غیرمنتظره/مضر در LLMها مانند خودبزرگبینی یا تملق را پیش از موعد پیشبینی کند @berkeley_ai
- پژوهش نشان میدهد که هر وظیفهای که هوش مصنوعی مرزی (frontier AI) امروز تا حدودی قادر به انجام آن است، به احتمال زیاد یک سال دیگر میتواند آن را به طور قابل اعتماد انجام دهد @gdb