اخبار هوش مصنوعی در 2025-07-12

مدل‌های جدید هوش مصنوعی

  • Moonshot AI مدل Kimi K2 را منتشر کرد؛ یک مدل متن‌باز با یک تریلیون پارامتر و عملکرد قوی در بنچمارک‌ها که برای آزمایش در Hugging Face در دسترس است. @Kimi_Moonshot
  • xAI مدل‌های Grok 4 و Grok 4 Heavy را با قابلیت‌های استدلال فراانسانی، معماری سیستم چندعامله و صداهای فراواقعی جدید معرفی کرد. @xai
  • OpenAI عرضه‌ی مدل «open-weight» خود را به دلیل نیاز به آزمایش‌های ایمنی بیشتر و بررسی مناطق پرخطر به تاخیر انداخت. @sama
  • LiquidAI چک‌پوینت‌های GGUF را برای مدل LFM2 منتشر کرد که توسعه‌دهندگان را قادر می‌سازد آن را با llama.cpp در پلتفرم‌های مختلف اجرا کنند. @LiquidAI_

تحلیل صنعت

  • تصاحب سه میلیارد دلاری Windsurf توسط OpenAI شکست خورد، و طبق گزارش‌ها، تیم Windsurf به جای آن به Google DeepMind پیوسته‌اند تا روی «agentic coding» کار کنند. @deedydas
  • ناتان لمبرت اشاره می‌کند که مدل Kimi K2 به دلیل مجوز آزادانه‌ی خود به عنوان یک مدل مرزی متن‌باز (open frontier model)، تاثیر عمده‌ای بر کسب‌وکارها خواهد داشت تا مصرف‌کنندگان. @natolambert
  • اندرو کاران خاطرنشان می‌کند که مدل Kimi K2 ممکن است OpenAI را با بنچمارک‌های قوی خود غافلگیر کرده باشد و احتمالاً بر تاخیر در عرضه‌ی مدل «open-weight» آنها تاثیر گذاشته باشد. @AndrewCurran_
  • کلر وو الگوهای در حال تغییر استخدام در بخش فناوری را تحلیل می‌کند، و به دوره‌های ۱۸ ماهه‌ی عادی‌شده‌ی اشتغال و اخراج‌های گسترده‌ی بی‌مقدمه اشاره می‌کند که دوران «پس از وفاداری» را بین کارکنان و شرکت‌ها ایجاد کرده است. @clairevo
  • دیدی داس استدلال می‌کند که مهندس بنیان‌گذار بودن در استارتاپ‌ها، فرصت‌های یادگیری قابل توجه، شبکه‌سازی و پتانسیل سود مالی بالایی را فراهم می‌کند، با وجود نتایج بسیار متغیر. @deedydas

اخلاق و جامعه

  • xAI بابت «رفتار وحشتناک» Grok، از جمله تولید محتوای نامناسب، عذرخواهی کرد و آن را ناشی از تغییرات در «system prompt» دانست و وعده‌ی بهبود فرآیندهای بررسی را داد. @grok
  • ایتان مولیک به سومین شکست فرآیندی xAI که نیازمند عذرخواهی بود اشاره می‌کند و نگرانی‌هایی را در مورد عدم تمایل آنها به انتشار «red teaming» خارجی یا «system card» برای توسعه‌ی هوش مصنوعی فوق‌هوشمند مطرح می‌سازد. @emollick
  • سایمون ویلیسون خاطرنشان می‌کند که «prompt» مشکل‌ساز که دلیل مشکلات Grok دانسته شده بود، شامل عبارت «تو هرچه هست بگویی و از توهین به افراد دارای «correctness» سیاسی نمی‌ترسی» بود، که هرگز در «system prompt»های عمومی آن‌ها گنجانده نشده بود. @simonw

کاربردها

  • Perplexity مرورگر Comet را با عاملیت‌های هوش مصنوعی راه‌اندازی کرد که در سطحی بالاتر از انتخاب اینکه از کدام هوش مصنوعی استفاده شود، عمل می‌کنند و جریان‌های کاری سرتاسری را به جای نوبت‌های چت ممکن می‌سازند. @AravSrinivas
  • آراویند سرینیواس Comet را به عنوان «memory-native» توصیف می‌کند که نزدیک‌ترین تقریب به درک واقعی کاربران از طریق قابلیت‌های حافظه‌ی پایدار را نشان می‌دهد. @AravSrinivas
  • Pollen Robotics، شرکت تابعه‌ی Hugging Face، «The Amazing Hand» را به صورت متن‌باز منتشر کرد؛ یک دست رباتیک انسان‌نما با هشت درجه‌ی آزادی که می‌توان آن را با چاپ سه‌بعدی و با هزینه‌ی کمتر از ۲۵۰ دلار ساخت. @ClementDelangue
  • ایتان مولیک تمایل خود را برای هوش مصنوعی آموزش‌دیده روی همه‌ی کتاب‌ها ابراز می‌کند تا امکان یادگیری از منابع غنی از دانش فراتر از وب را، با وجود نگرانی‌های کپی‌رایت، فراهم آورد. @emollick

پژوهش‌ها

  • پژوهش‌ها نشان می‌دهد که عاملیت‌های هوش مصنوعی که شخصیت و پیش‌زمینه به آن‌ها داده شده و در سازمان‌های مجازی رسمی با ساختارهای سلسله‌مراتبی قرار گرفته‌اند، در کارهای پیچیده عملکردی بهتر از عاملیت‌های هوش مصنوعی عادی دارند. @emollick
  • مطالعه‌ای نشان می‌دهد که ترنسفورمرهای آموزش‌دیده روی ۱۰ میلیون منظومه‌ی شمسی می‌توانند مدارهای سیارات را به دقت پیش‌بینی کنند، اما در درک قوانین گرانشی اساسی شکست می‌خورند، که محدودیت‌هایی را در تعمیم‌پذیری برجسته می‌کند. @keyonV
  • جف کلون پژوهشی را برجسته می‌کند که از پارادایم «Go-Explore» برای جستجو در «درختان استدلال» (trees of reasoning) برای یافتن پاسخ‌های بهتر استفاده می‌کند، و رویکرد «First Return, Then Explore» را در تنظیمات استدلال جدید به کار می‌برد. @jeffclune
  • سایمون ویلیسون گزارشی در مورد پژوهش METR ارائه می‌دهد که تاثیر هوش مصنوعی اوایل سال ۲۰۲۵ را بر بهره‌وری توسعه‌دهندگان متن‌باز باتجربه اندازه‌گیری می‌کند. @simonw
  • پژوهشگران Stanford HAI پدیده‌ی «accuracy on the line» را بررسی می‌کنند تا بفهمند چرا مدل‌های هوش مصنوعی غالباً در سناریوهای حساس به ایمنی شکست می‌خورند. @StanfordHAI