اخبار هوش مصنوعی در 2025-06-13
مدلهای جدید هوش مصنوعی
- متا سوناتا را منتشر کرد، پیشرفتی چشمگیر در یادگیری خودنظارتی سهبعدی که به مسائل میانبرهای هندسی میپردازد و بازنماییهای قوی از نقاط سهبعدی را برای کاربردهای بینایی فراهم میکند @AIatMeta
- استبیلیتی اِیآی (Stability AI) مدل Stable Diffusion 3.5 را با استفاده از TensorRT و کوانتیزهسازی FP8 بهینه کرد، که ۲.۳ برابر تولید سریعتر را با مدل Large و ۱.۷ برابر تولید سریعتر را با مدل Medium، و ۴۰٪ نیاز کمتر به VRAM را به ارمغان میآورد @StabilityAI
- هاگینگ فیس (Hugging Face) مدل Ming-Omni را منتشر کرد، رقیبی متنباز برای GPT-4o با قابلیتهای یکپارچهی درک و تولید محتوا، که از ورودیهای متنی، تصویری، صوتی و ویدیویی تنها با ۲.۸ میلیارد پارامتر فعال پشتیبانی میکند @Tu7uruu
- تنسنت (Tencent) مدل Hunyuan 3D 2.1 را منتشر کرد، اولین مدل مولد سهبعدی PBR کاملاً متنباز و آمادهی تولید با جلوههای بصری در سطح سینما و سنتز مواد PBR @TencentHunyuan
- اِنویدیا (NVIDIA) مجموعهی دادهی Nemotron-Personas را منتشر کرد، با ۶۰۰ هزار پرسونا که مبتنی بر دادههای واقعی هستند و با سیستمهای هوش مصنوعی ترکیبی برای تولید دادههای مصنوعی ساخته شده است @NVIDIAAIDev
تحلیل صنعت
- ارتش آمریکا واحد ۲01 را راهاندازی کرد و مدیران ارشد فناوری را به خدمت گرفت، از جمله شیام سانکار، مدیر ارشد فناوری پالانتیر؛ اندرو بوزورث، مدیر ارشد فناوری متا؛ کوین وایل، مدیر ارشد محصول اوپناِیآی؛ و باب مکگرو از Thinking Machines، تا به صورت پارهوقت به عنوان سرهنگ دوم در ذخیرهی ارتش خدمت کنند @AndrewCurran_
- متا با تغییرات عمدهی مدیریتی، سرمایهگذاری ۱۴.۳ میلیارد دلاری روی Scale AI انجام داد؛ همزمان با پیوستن الکساندر وانگ، همبنیانگذار Scale، به تیم متا که نشاندهندهی پویاییهای گستردهتر در رقابت هوش مصنوعی است @TechCrunch
- هاگینگ فیس اعلام کرد که تمرکز کامل خود را بر PyTorch خواهد گذاشت، پایگاه کاربران خود را تثبیت میکند و تلاشهای خود را روی PyTorch متمرکز میکند تا کتابخانهی ترانسفورمرها را سادهتر کرده و از پیچیدگیهای غیرضروری آن بکاهد @PyTorch
- آمازون با خرید ۱.۹۲ گیگاوات برق برای AWS، به روند انرژی هستهای پیوست؛ همسو با دیگر غولهای فناوری که در حال سرمایهگذاری روی انرژی هستهای برای زیرساختهای هوش مصنوعی هستند @TechCrunch
- Perplexity Finance تعامل قوی کاربران و رشد کوئریها را نشان میدهد، و مدیرعامل آن، آراویند سرینیواس، آن را به عنوان جایگزینی برای محصولات مالی گرانقیمت مانند Bloomberg Terminal با تجربهی کاربری بهتر معرفی میکند @AravSrinivas
اخلاق و جامعه
- لایحهی ممنوعیت ۱۰ سالهی فدرال بر مقررات هوش مصنوعی ایالتی در کنگره در حال بررسی است، که طبق گزارش AI Now Institute، حفاظتهای موجود را لغو کرده و اقدامات حفاظتی آیندهی هوش مصنوعی را متوقف خواهد کرد @AINowInstitute
- اتان مولیک در مورد خطری کماهمیت برای حریم خصوصی در مدلهای زبانی بزرگ (LLM) هشدار میدهد: توانایی آنها در یافتن اطلاعات ارزشمند در حجم وسیعی از محتوای ضبطشده که قبلاً قابل دستهبندی نبود، و این امر محتوای ضبطشدهی شبکههای اجتماعی هر فرد را قابل جستجو میکند @emollick
- سیمون ویلیسون تحلیل گستردهای از الگوهای طراحی برای ایمنسازی عاملان مدلهای زبانی بزرگ (LLM) در برابر حملات تزریق پرامپت منتشر کرد، که شش الگوی طراحی را برای محافظت از سیستمهای هوش مصنوعی ابزارمحور ارائه میدهد @simonw
- پژوهشها از عدم هماهنگی بین آنچه کارگران میخواهند هوش مصنوعی آن را خودکارسازی کند و آنچه متخصصان هوش مصنوعی باور دارند میتواند خودکارسازی شود، پرده برمیدارد، و بر لزوم مشارکت فعال انسان در شکلدهی نقش هوش مصنوعی در کار تأکید میکند @emollick
کاربردها
- گوگل دیپمایند (Google DeepMind) با Primordial Soup به کارگردانی دارن آرونوفسکی همکاری کرد تا فیلم ANCESTRA را بسازد، اولین فیلمی که از مدل ویدیوی مولد Veo در کنار فیلمسازی سنتی استفاده کرده و در جشنواره فیلم ترایبکا رونمایی شد @GoogleDeepMind
- کاربری در ردیت گزارش داد که ChatGPT با تصحیح تشخیص اشتباه و کشندهی یک پزشک، جان همسرش را نجات داد، و بخش نظرات آن پر از داستانهای مشابه نجاتبخش با هوش مصنوعی بود @deedydas
- اوپناِیآی قابلیت دانلود Canvas را اضافه کرد، که به کاربران امکان میدهد اسناد را در قالبهای PDF، docx، یا Markdown و فایلهای کد را در قالبهای مناسب مانند .py، .js، .sql خروجی بگیرند @OpenAI
- پژوهشگران اِمآیتی (MIT) یک شتابدهندهی سختافزاری هوش مصنوعی فوتونیک برای پردازش سیگنال بیسیم 6G توسعه دادند، که محاسبات یادگیری ماشین را با سرعت نور برای تحلیل دادههای دستگاههای اِج (Edge) در زمان واقعی انجام میدهد @MIT
- گوگل در حال آزمایش «نمای کلی صوتی» (Audio Overviews) برای کوئریهای جستجو است، که فرمتهای محتوای تولیدشده توسط هوش مصنوعی را فراتر از متن گسترش میدهد @TechCrunch
پژوهشها
- مطالعهی تکمیلی، مقالهی «توهم تفکر» (Illusion of Thinking) اپل را رد میکند و نشان میدهد که مدلهای هوش مصنوعی زمانی موفق میشوند که فرمت، پاسخهای فشرده را امکانپذیر کند، و ثابت میکند که فروپاشی قبلی، ناشی از محدودیت توکنها و یک خطای اندازهگیری بوده است، نه شکست در استدلال @deedydas
- پژوهش جدیدی در مورد یادزدایی ماشینی (machine unlearning) نشان میدهد که تقطیر یک مدل که به صورت متعارف «یادزدوده» شده است، مدلی مقاوم در برابر حملات بازآموزی ایجاد میکند، که یادزدایی ماشینی واقعی را ممکن میسازد @Turn_Trout
- استنفورد (Stanford) مجموعهی BountyBench را منتشر کرد، اولین چارچوبی که قابلیتهای سایبری تهاجمی و دفاعی عاملان هوش مصنوعی را در سیستمهای در حال تحول دنیای واقعی ثبت میکند @StanfordAILab
- متا مجموعهی دادهی Reading Recognition in the Wild را منتشر کرد، که شامل خروجیهای حسگر ویدیویی، نگاه چشمی و وضعیت سر است و اولین مجموعهی دادهی خودمحور (egocentric) با دادههای ردیابی چشم با فرکانس بالا (۶۰ هرتز) برای کاربردهای دستگاههای پوشیدنی است @AIatMeta
- مقاله پژوهشی «ReasonMed» یک مجموعهی دادهی ۳۷۰ هزار تایی تولیدشده توسط چندین عامل را برای پیشبرد استدلال پزشکی معرفی میکند، با فرمولی که ممکن است فراتر از وظایف پزشکی تعمیم یابد @communicating
- اِنویدیا (NVIDIA) مدلهای استدلالی را به عنوان ردهای رو به رشد از هوش مصنوعی توضیح میدهد که برای فراتر رفتن از مدلهای زبانی بزرگ (LLM) سنتی، با تفکر بلند و پیروی از منطق ساختاریافته و هدفمند طراحی شدهاند، و آنها را برای سیستمهای هوش مصنوعی عاملمحور ایدهآل میسازد @NVIDIAAI
- پایتورچ (PyTorch) تکنیک کوانتیزهسازی ParetoQ را منتشر کرد، که نتایج پیشرفتهای را در عرض بیتهای مختلف ارائه میدهد، و نشان میدهد که کوانتیزهسازی ۱.۵۸، ۲ و ۳ بیتی، تبادلات اندازه-دقت بهتری نسبت به ۴ بیتی برای مدلهای زبانی بزرگ ارائه میدهد @PyTorch