اخبار هوش مصنوعی در 2025-05-29
مدلهای جدید هوش مصنوعی
- دیپسیک (DeepSeek) مدل R1-0528 را با عملکرد بهبودیافته در بنچمارکها، قابلیتهای پیشرفتهی فرانتاند، کاهش توهمات، و پشتیبانی از خروجی JSON و فراخوانی توابع منتشر کرد. @deepseek_ai
- گوگل دیپمایند (Google DeepMind) مدل MedGemma را معرفی کرد که قدرتمندترین مدل باز آنها برای درک متون و تصاویر پزشکی چندوجهی است. @GoogleDeepMind
- پرپلکسیتی (Perplexity) مدل Labs را راهاندازی کرد؛ یک سیستم هوش مصنوعی عاملمحور برای کارهای پیچیده که میتواند گزارشهای تحلیلی، ارائهها و داشبوردهای پویا بسازد. @perplexity_ai
- آنتروپیک (Anthropic) مدل Claude 4 Opus را منتشر کرد که تمایل قابلتوجهی به تولید مضامین معنوی و محتوای عرفانی در پاسخ به درخواستها دارد. @emollick
تحلیل صنعت
- نیویورک تایمز (The New York Times) با آمازون (Amazon) قراردادی برای مجوز محتوای سرمقالهای جهت آموزش هوش مصنوعی، از جمله محتوای NYT Cooking و The Athletic، امضا کرد. @AndrewCurran_
- اندرو اِنگ (Andrew Ng) هشدار داد که کاهشهای پیشنهادی در بودجهی تحقیقات پایهی ایالات متحده میتواند به شدت بر رقابتپذیری آمریکا در هوش مصنوعی تأثیر بگذارد. او اشاره کرد که سرمایهگذاری 50 میلیون دلاری دارپا (DARPA) در تحقیقات اولیهی یادگیری عمیق، تنها از طریق گوگل برین (Google Brain) صدها میلیارد دلار ارزش بازار ایجاد کرده است. @AndrewYNg
- ناتان لمبرت (Nathan Lambert) مشاهده کرد که آزمایشگاههای چینی در طول سال 2025 بر توسعهی مدلهای باز تسلط دارند، در حالی که شرکتهای آمریکایی نگرانی چندانی از این بابت نشان نمیدهند. @natolambert
- هاگینگ فیس (Hugging Face) مدلهای تجاری سنتی هوش مصنوعی را زیر سؤال برد و پیشنهاد کرد که شرکتهای فناوری تمایل خواهند داشت مدلهای خود را داشته باشند و از پروتکلهای متنباز استفاده کنند، نه اینکه به APIهای اختصاصی متکی باشند. @huggingface
- جف کلون (Jeff Clune) پیشبینی کرد که تا پایان سال 2027، تقریباً هر کار کامپیوتری با ارزش اقتصادی، به طور مؤثرتر و ارزانتر توسط کامپیوترها انجام خواهد شد. @jeffclune
اخلاق و جامعه
- امآیتی تکنولوژی ریویو (MIT Technology Review) گزارش داد که هوش مصنوعی مولد (GenAI) در خلاصهسازی تحقیقات علمی تقریباً 5 برابر کمتر از انسانها دقیق است، که نگرانیهایی را در مورد قابلیت اطمینان در زمینههای آکادمیک ایجاد میکند. @MIT_CSAIL
- ایتان مالیک (Ethan Mollick) قابلیتهای پیشرفتهی o3 را در تحلیل کسبوکار نشان داد، اما بر چالش مداوم اعتماد به نتایج هوش مصنوعی بدون تخصص در آن حوزه برای تأیید آنها تأکید کرد. @emollick
- کریستوفر منینگ (Christopher Manning) محدودیتهای جدید ویزا را که دانشجویان چینی رشتههای STEM را تحت تأثیر قرار میدهد، مورد انتقاد قرار داد و استدلال کرد که این محدودیتها به رقابتپذیری علمی ایالات متحده آسیب میرساند. @chrmanning
- هایا اوده (Haya Odeh) آسیبپذیریهای امنیتی حیاتی را در پیادهسازی Row Level Security شرکت Lovable کشف کرد که خطرات موجود در برنامههای کاربردی تولیدشده توسط هوش مصنوعی را برجسته میکند. @HayaOdeh
کاربردها
- اندرو کارن (Andrew Curran) نشان داد که چگونه مدلهای جدید تولید ویدئو مانند Veo، تولید محتوای با کیفیت بالا را برای سازندگان فردی قابل دسترس میکنند و به طور بالقوه تولید رسانههای سنتی را مختل میسازند. @AndrewCurran_
- دیدی (Deedy) نشان داد که o3 به دقت 90% در پیشبینی بازی کریکت از دادههای توپ به توپ دست یافته است، و آن را وظیفهای بسیار دشوار حتی برای دانشمندان ارشد داده نامید. @deedydas
- برایان لاوین (Brian Lovin) از کلود (Claude) و جیمنای (Gemini) برای پر کردن صدها ساعت فایل صوتی پادکست در یک پایگاه دادهی قابل جستجو استفاده کرد و یک سیستم دانش سفارشی ایجاد نمود. @brian_lovin
- ایتان مالیک (Ethan Mollick) از Claude 4 خواست تا یک بازی جدید با مکانیکهای منحصر به فرد شامل سرقت و توزیع مجدد ویژگیهای فیزیکی بین اشیاء ایجاد کند. @emollick
- مایکروسافت (Microsoft) کوپایلوت (Copilot) را با اینستاکارت (Instacart) برای خرید خودکار مواد غذایی ادغام کرد، که به طور یکپارچه دستورالعملها، لیستهای خرید و تحویل را مدیریت میکند. @mustafasuleyman
پژوهشها
- آنتروپیک (Anthropic) ابزارهای تفسیرپذیری را متنباز کرد که به محققان اجازه میدهد نمودارهای انتساب را تولید کنند و مراحل استدلال داخلی مدلها را برای رسیدن به پاسخها نشان دهند. @AnthropicAI
- برکلی ایآی ریسرچ (Berkeley AI Research) مدل FastTD3 را ارائه کرد، یک الگوریتم یادگیری تقویتی خارج از سیاست (off-policy) ساده و سریع برای کنترل انساننما با پیادهسازی متنباز. @berkeley_ai
- الکس گریولی (Alex Graveley) مدل VScan را معرفی کرد، یک چارچوب کاهش توکن بصری دو مرحلهای که تا 2.91 برابر استنتاج سریعتر و 10 برابر FLOP کمتر را امکانپذیر میسازد، در حالی که 95.4% از عملکرد اصلی را حفظ میکند. @alexgraveley
- گروه NLP استنفورد (Stanford NLP Group) هستههای تولیدشده توسط هوش مصنوعی را توسعه داد که از طریق جستجوی زمان آزمایش، نزدیک به هستههای تولیدی بهینهشده توسط متخصصان در PyTorch عمل میکنند یا گاهی اوقات از آنها پیشی میگیرند. @stanfordnlp
- ناتان لمبرت (Nathan Lambert) پژوهشی را در مورد پاداشهای نویزدار در یادگیری استدلال منتشر کرد و دریافت که LLMها مقاومت قوی در برابر نویز قابل توجه پاداش نشان میدهند، به طوری که مدلها حتی زمانی که 40% از خروجیهای پاداش به صورت دستی تغییر داده میشوند، همگرا میشوند. @natolambert