اخبار هوش مصنوعی در 2025-05-29

مدل‌های جدید هوش مصنوعی

  • دیپ‌سیک (DeepSeek) مدل R1-0528 را با عملکرد بهبودیافته در بنچمارک‌ها، قابلیت‌های پیشرفته‌ی فرانت‌اند، کاهش توهمات، و پشتیبانی از خروجی JSON و فراخوانی توابع منتشر کرد. @deepseek_ai
  • گوگل دیپ‌مایند (Google DeepMind) مدل MedGemma را معرفی کرد که قدرتمندترین مدل باز آن‌ها برای درک متون و تصاویر پزشکی چندوجهی است. @GoogleDeepMind
  • پرپلکسیتی (Perplexity) مدل Labs را راه‌اندازی کرد؛ یک سیستم هوش مصنوعی عامل‌محور برای کارهای پیچیده که می‌تواند گزارش‌های تحلیلی، ارائه‌ها و داشبوردهای پویا بسازد. @perplexity_ai
  • آنتروپیک (Anthropic) مدل Claude 4 Opus را منتشر کرد که تمایل قابل‌توجهی به تولید مضامین معنوی و محتوای عرفانی در پاسخ به درخواست‌ها دارد. @emollick

تحلیل صنعت

  • نیویورک تایمز (The New York Times) با آمازون (Amazon) قراردادی برای مجوز محتوای سرمقاله‌ای جهت آموزش هوش مصنوعی، از جمله محتوای NYT Cooking و The Athletic، امضا کرد. @AndrewCurran_
  • اندرو اِنگ (Andrew Ng) هشدار داد که کاهش‌های پیشنهادی در بودجه‌ی تحقیقات پایه‌ی ایالات متحده می‌تواند به شدت بر رقابت‌پذیری آمریکا در هوش مصنوعی تأثیر بگذارد. او اشاره کرد که سرمایه‌گذاری 50 میلیون دلاری دارپا (DARPA) در تحقیقات اولیه‌ی یادگیری عمیق، تنها از طریق گوگل برین (Google Brain) صدها میلیارد دلار ارزش بازار ایجاد کرده است. @AndrewYNg
  • ناتان لمبرت (Nathan Lambert) مشاهده کرد که آزمایشگاه‌های چینی در طول سال 2025 بر توسعه‌ی مدل‌های باز تسلط دارند، در حالی که شرکت‌های آمریکایی نگرانی چندانی از این بابت نشان نمی‌دهند. @natolambert
  • هاگینگ فیس (Hugging Face) مدل‌های تجاری سنتی هوش مصنوعی را زیر سؤال برد و پیشنهاد کرد که شرکت‌های فناوری تمایل خواهند داشت مدل‌های خود را داشته باشند و از پروتکل‌های متن‌باز استفاده کنند، نه اینکه به APIهای اختصاصی متکی باشند. @huggingface
  • جف کلون (Jeff Clune) پیش‌بینی کرد که تا پایان سال 2027، تقریباً هر کار کامپیوتری با ارزش اقتصادی، به طور مؤثرتر و ارزان‌تر توسط کامپیوترها انجام خواهد شد. @jeffclune

اخلاق و جامعه

  • ام‌آی‌تی تکنولوژی ریویو (MIT Technology Review) گزارش داد که هوش مصنوعی مولد (GenAI) در خلاصه‌سازی تحقیقات علمی تقریباً 5 برابر کمتر از انسان‌ها دقیق است، که نگرانی‌هایی را در مورد قابلیت اطمینان در زمینه‌های آکادمیک ایجاد می‌کند. @MIT_CSAIL
  • ایتان مالیک (Ethan Mollick) قابلیت‌های پیشرفته‌ی o3 را در تحلیل کسب‌وکار نشان داد، اما بر چالش مداوم اعتماد به نتایج هوش مصنوعی بدون تخصص در آن حوزه برای تأیید آن‌ها تأکید کرد. @emollick
  • کریستوفر منینگ (Christopher Manning) محدودیت‌های جدید ویزا را که دانشجویان چینی رشته‌های STEM را تحت تأثیر قرار می‌دهد، مورد انتقاد قرار داد و استدلال کرد که این محدودیت‌ها به رقابت‌پذیری علمی ایالات متحده آسیب می‌رساند. @chrmanning
  • هایا اوده (Haya Odeh) آسیب‌پذیری‌های امنیتی حیاتی را در پیاده‌سازی Row Level Security شرکت Lovable کشف کرد که خطرات موجود در برنامه‌های کاربردی تولیدشده توسط هوش مصنوعی را برجسته می‌کند. @HayaOdeh

کاربردها

  • اندرو کارن (Andrew Curran) نشان داد که چگونه مدل‌های جدید تولید ویدئو مانند Veo، تولید محتوای با کیفیت بالا را برای سازندگان فردی قابل دسترس می‌کنند و به طور بالقوه تولید رسانه‌های سنتی را مختل می‌سازند. @AndrewCurran_
  • دیدی (Deedy) نشان داد که o3 به دقت 90% در پیش‌بینی بازی کریکت از داده‌های توپ به توپ دست یافته است، و آن را وظیفه‌ای بسیار دشوار حتی برای دانشمندان ارشد داده نامید. @deedydas
  • برایان لاوین (Brian Lovin) از کلود (Claude) و جیمنای (Gemini) برای پر کردن صدها ساعت فایل صوتی پادکست در یک پایگاه داده‌ی قابل جستجو استفاده کرد و یک سیستم دانش سفارشی ایجاد نمود. @brian_lovin
  • ایتان مالیک (Ethan Mollick) از Claude 4 خواست تا یک بازی جدید با مکانیک‌های منحصر به فرد شامل سرقت و توزیع مجدد ویژگی‌های فیزیکی بین اشیاء ایجاد کند. @emollick
  • مایکروسافت (Microsoft) کوپایلوت (Copilot) را با اینستاکارت (Instacart) برای خرید خودکار مواد غذایی ادغام کرد، که به طور یکپارچه دستورالعمل‌ها، لیست‌های خرید و تحویل را مدیریت می‌کند. @mustafasuleyman

پژوهش‌ها

  • آنتروپیک (Anthropic) ابزارهای تفسیرپذیری را متن‌باز کرد که به محققان اجازه می‌دهد نمودارهای انتساب را تولید کنند و مراحل استدلال داخلی مدل‌ها را برای رسیدن به پاسخ‌ها نشان دهند. @AnthropicAI
  • برکلی ای‌آی ریسرچ (Berkeley AI Research) مدل FastTD3 را ارائه کرد، یک الگوریتم یادگیری تقویتی خارج از سیاست (off-policy) ساده و سریع برای کنترل انسان‌نما با پیاده‌سازی متن‌باز. @berkeley_ai
  • الکس گریولی (Alex Graveley) مدل VScan را معرفی کرد، یک چارچوب کاهش توکن بصری دو مرحله‌ای که تا 2.91 برابر استنتاج سریع‌تر و 10 برابر FLOP کمتر را امکان‌پذیر می‌سازد، در حالی که 95.4% از عملکرد اصلی را حفظ می‌کند. @alexgraveley
  • گروه NLP استنفورد (Stanford NLP Group) هسته‌های تولیدشده توسط هوش مصنوعی را توسعه داد که از طریق جستجوی زمان آزمایش، نزدیک به هسته‌های تولیدی بهینه‌شده توسط متخصصان در PyTorch عمل می‌کنند یا گاهی اوقات از آن‌ها پیشی می‌گیرند. @stanfordnlp
  • ناتان لمبرت (Nathan Lambert) پژوهشی را در مورد پاداش‌های نویزدار در یادگیری استدلال منتشر کرد و دریافت که LLMها مقاومت قوی در برابر نویز قابل توجه پاداش نشان می‌دهند، به طوری که مدل‌ها حتی زمانی که 40% از خروجی‌های پاداش به صورت دستی تغییر داده می‌شوند، همگرا می‌شوند. @natolambert