اخبار هوش مصنوعی در 2025-06-13

مدل‌های جدید هوش مصنوعی

  • متا سوناتا را منتشر کرد، پیشرفتی چشمگیر در یادگیری خودنظارتی سه‌بعدی که به مسائل میان‌برهای هندسی می‌پردازد و بازنمایی‌های قوی از نقاط سه‌بعدی را برای کاربردهای بینایی فراهم می‌کند @AIatMeta
  • استبیلیتی اِی‌آی (Stability AI) مدل Stable Diffusion 3.5 را با استفاده از TensorRT و کوانتیزه‌سازی FP8 بهینه کرد، که ۲.۳ برابر تولید سریع‌تر را با مدل Large و ۱.۷ برابر تولید سریع‌تر را با مدل Medium، و ۴۰٪ نیاز کمتر به VRAM را به ارمغان می‌آورد @StabilityAI
  • هاگینگ فیس (Hugging Face) مدل Ming-Omni را منتشر کرد، رقیبی متن‌باز برای GPT-4o با قابلیت‌های یکپارچه‌ی درک و تولید محتوا، که از ورودی‌های متنی، تصویری، صوتی و ویدیویی تنها با ۲.۸ میلیارد پارامتر فعال پشتیبانی می‌کند @Tu7uruu
  • تنسنت (Tencent) مدل Hunyuan 3D 2.1 را منتشر کرد، اولین مدل مولد سه‌بعدی PBR کاملاً متن‌باز و آماده‌ی تولید با جلوه‌های بصری در سطح سینما و سنتز مواد PBR @TencentHunyuan
  • اِنویدیا (NVIDIA) مجموعه‌ی داده‌ی Nemotron-Personas را منتشر کرد، با ۶۰۰ هزار پرسونا که مبتنی بر داده‌های واقعی هستند و با سیستم‌های هوش مصنوعی ترکیبی برای تولید داده‌های مصنوعی ساخته شده است @NVIDIAAIDev

تحلیل صنعت

  • ارتش آمریکا واحد ۲01 را راه‌اندازی کرد و مدیران ارشد فناوری را به خدمت گرفت، از جمله شیام سانکار، مدیر ارشد فناوری پالانتیر؛ اندرو بوزورث، مدیر ارشد فناوری متا؛ کوین وایل، مدیر ارشد محصول اوپن‌اِی‌آی؛ و باب مک‌گرو از Thinking Machines، تا به صورت پاره‌وقت به عنوان سرهنگ دوم در ذخیره‌ی ارتش خدمت کنند @AndrewCurran_
  • متا با تغییرات عمده‌ی مدیریتی، سرمایه‌گذاری ۱۴.۳ میلیارد دلاری روی Scale AI انجام داد؛ هم‌زمان با پیوستن الکساندر وانگ، هم‌بنیان‌گذار Scale، به تیم متا که نشان‌دهنده‌ی پویایی‌های گسترده‌تر در رقابت هوش مصنوعی است @TechCrunch
  • هاگینگ فیس اعلام کرد که تمرکز کامل خود را بر PyTorch خواهد گذاشت، پایگاه کاربران خود را تثبیت می‌کند و تلاش‌های خود را روی PyTorch متمرکز می‌کند تا کتابخانه‌ی ترانسفورمرها را ساده‌تر کرده و از پیچیدگی‌های غیرضروری آن بکاهد @PyTorch
  • آمازون با خرید ۱.۹۲ گیگاوات برق برای AWS، به روند انرژی هسته‌ای پیوست؛ همسو با دیگر غول‌های فناوری که در حال سرمایه‌گذاری روی انرژی هسته‌ای برای زیرساخت‌های هوش مصنوعی هستند @TechCrunch
  • Perplexity Finance تعامل قوی کاربران و رشد کوئری‌ها را نشان می‌دهد، و مدیرعامل آن، آراویند سرینیواس، آن را به عنوان جایگزینی برای محصولات مالی گران‌قیمت مانند Bloomberg Terminal با تجربه‌ی کاربری بهتر معرفی می‌کند @AravSrinivas

اخلاق و جامعه

  • لایحه‌ی ممنوعیت ۱۰ ساله‌ی فدرال بر مقررات هوش مصنوعی ایالتی در کنگره در حال بررسی است، که طبق گزارش AI Now Institute، حفاظت‌های موجود را لغو کرده و اقدامات حفاظتی آینده‌ی هوش مصنوعی را متوقف خواهد کرد @AINowInstitute
  • اتان مولیک در مورد خطری کم‌اهمیت برای حریم خصوصی در مدل‌های زبانی بزرگ (LLM) هشدار می‌دهد: توانایی آن‌ها در یافتن اطلاعات ارزشمند در حجم وسیعی از محتوای ضبط‌شده که قبلاً قابل دسته‌بندی نبود، و این امر محتوای ضبط‌شده‌ی شبکه‌های اجتماعی هر فرد را قابل جستجو می‌کند @emollick
  • سیمون ویلیسون تحلیل گسترده‌ای از الگوهای طراحی برای ایمن‌سازی عاملان مدل‌های زبانی بزرگ (LLM) در برابر حملات تزریق پرامپت منتشر کرد، که شش الگوی طراحی را برای محافظت از سیستم‌های هوش مصنوعی ابزارمحور ارائه می‌دهد @simonw
  • پژوهش‌ها از عدم هماهنگی بین آنچه کارگران می‌خواهند هوش مصنوعی آن را خودکارسازی کند و آنچه متخصصان هوش مصنوعی باور دارند می‌تواند خودکارسازی شود، پرده برمی‌دارد، و بر لزوم مشارکت فعال انسان در شکل‌دهی نقش هوش مصنوعی در کار تأکید می‌کند @emollick

کاربردها

  • گوگل دیپ‌مایند (Google DeepMind) با Primordial Soup به کارگردانی دارن آرونوفسکی همکاری کرد تا فیلم ANCESTRA را بسازد، اولین فیلمی که از مدل ویدیوی مولد Veo در کنار فیلم‌سازی سنتی استفاده کرده و در جشنواره فیلم ترایبکا رونمایی شد @GoogleDeepMind
  • کاربری در ردیت گزارش داد که ChatGPT با تصحیح تشخیص اشتباه و کشنده‌ی یک پزشک، جان همسرش را نجات داد، و بخش نظرات آن پر از داستان‌های مشابه نجات‌بخش با هوش مصنوعی بود @deedydas
  • اوپن‌اِی‌آی قابلیت دانلود Canvas را اضافه کرد، که به کاربران امکان می‌دهد اسناد را در قالب‌های PDF، docx، یا Markdown و فایل‌های کد را در قالب‌های مناسب مانند .py، .js، .sql خروجی بگیرند @OpenAI
  • پژوهشگران اِم‌آی‌تی (MIT) یک شتاب‌دهنده‌ی سخت‌افزاری هوش مصنوعی فوتونیک برای پردازش سیگنال بی‌سیم 6G توسعه دادند، که محاسبات یادگیری ماشین را با سرعت نور برای تحلیل داده‌های دستگاه‌های اِج (Edge) در زمان واقعی انجام می‌دهد @MIT
  • گوگل در حال آزمایش «نمای کلی صوتی» (Audio Overviews) برای کوئری‌های جستجو است، که فرمت‌های محتوای تولیدشده توسط هوش مصنوعی را فراتر از متن گسترش می‌دهد @TechCrunch

پژوهش‌ها

  • مطالعه‌ی تکمیلی، مقاله‌ی «توهم تفکر» (Illusion of Thinking) اپل را رد می‌کند و نشان می‌دهد که مدل‌های هوش مصنوعی زمانی موفق می‌شوند که فرمت، پاسخ‌های فشرده را امکان‌پذیر کند، و ثابت می‌کند که فروپاشی قبلی، ناشی از محدودیت توکن‌ها و یک خطای اندازه‌گیری بوده است، نه شکست در استدلال @deedydas
  • پژوهش جدیدی در مورد یادزدایی ماشینی (machine unlearning) نشان می‌دهد که تقطیر یک مدل که به صورت متعارف «یادزدوده» شده است، مدلی مقاوم در برابر حملات بازآموزی ایجاد می‌کند، که یادزدایی ماشینی واقعی را ممکن می‌سازد @Turn_Trout
  • استنفورد (Stanford) مجموعه‌ی BountyBench را منتشر کرد، اولین چارچوبی که قابلیت‌های سایبری تهاجمی و دفاعی عاملان هوش مصنوعی را در سیستم‌های در حال تحول دنیای واقعی ثبت می‌کند @StanfordAILab
  • متا مجموعه‌ی داده‌ی Reading Recognition in the Wild را منتشر کرد، که شامل خروجی‌های حسگر ویدیویی، نگاه چشمی و وضعیت سر است و اولین مجموعه‌ی داده‌ی خودمحور (egocentric) با داده‌های ردیابی چشم با فرکانس بالا (۶۰ هرتز) برای کاربردهای دستگاه‌های پوشیدنی است @AIatMeta
  • مقاله پژوهشی «ReasonMed» یک مجموعه‌ی داده‌ی ۳۷۰ هزار تایی تولیدشده توسط چندین عامل را برای پیشبرد استدلال پزشکی معرفی می‌کند، با فرمولی که ممکن است فراتر از وظایف پزشکی تعمیم یابد @communicating
  • اِنویدیا (NVIDIA) مدل‌های استدلالی را به عنوان رده‌ای رو به رشد از هوش مصنوعی توضیح می‌دهد که برای فراتر رفتن از مدل‌های زبانی بزرگ (LLM) سنتی، با تفکر بلند و پیروی از منطق ساختاریافته و هدفمند طراحی شده‌اند، و آن‌ها را برای سیستم‌های هوش مصنوعی عامل‌محور ایده‌آل می‌سازد @NVIDIAAI
  • پای‌تورچ (PyTorch) تکنیک کوانتیزه‌سازی ParetoQ را منتشر کرد، که نتایج پیشرفته‌ای را در عرض بیت‌های مختلف ارائه می‌دهد، و نشان می‌دهد که کوانتیزه‌سازی ۱.۵۸، ۲ و ۳ بیتی، تبادلات اندازه-دقت بهتری نسبت به ۴ بیتی برای مدل‌های زبانی بزرگ ارائه می‌دهد @PyTorch