اخبار هوش مصنوعی در 2025-06-08

مدل‌های جدید هوش مصنوعی

  • اوپن‌ای‌آی (OpenAI) به‌روزرسانی‌هایی را برای «Advanced Voice Mode» برای همه‌ی کاربران پولی منتشر کرد که شامل الگوهای گفتاری شبیه‌تر به انسان با لکنت‌های عمدی، خنده‌های عصبی و تغییرات صوتی است. @AndrewCurran_
  • اوپن‌ای‌آی (OpenAI) برای ماه‌ها در حال آزمایش نسخه‌های مختلفی از قابلیت‌های تفکر 4o بوده است؛ به‌طوری که برخی کاربران استدلال‌های خودبه‌خودی و فراخوانی‌های احتمالی به مدل‌های دیگری مانند o3 را تجربه کرده‌اند. @AndrewCurran_
  • پرپلکسیتی (Perplexity) از نسخه‌ی به‌روز شده‌ی «Deep Research» با استفاده از زیرساخت جدید بک‌اند (backend) خبر داد که در حال حاضر با ۲۰ درصد از کاربران در حال آزمایش است. @AravSrinivas
  • کووِن (Qwen) مدل جدید جاسازی (embedding) «Apache 2» با وزن‌های باز (open-weights) و بهترین عملکرد را منتشر کرد. @simonw
  • الوترای (EleutherAI) دو مدل زبان بزرگ (LLM) جدید را منتشر کرد که کاملاً با استفاده از متون دامنه‌ی عمومی یا دارای مجوز آزاد آموزش دیده‌اند؛ مدل ۲T با موفقیت به MLX منتقل شده تا برای استفاده‌ی محلی روی مک (Mac) قابل دسترس باشد. @simonw

تحلیل صنعت

  • گزارش شده که متا (Meta) در حال مذاکره با «Scale AI» برای سرمایه‌گذاری بیش از ۱۰ میلیارد دلار است؛ این اقدام نشان‌دهنده‌ی سرمایه‌گذاری عمده در زیرساخت هوش مصنوعی است. @AndrewCurran_
  • تغییرات کد مالیاتی «Section 174» از سال ۲۰۱۷، حقوق مهندسان را از کسر مالیاتی فوری به هزینه‌های قابل استهلاک ۵ ساله تبدیل کرد؛ این امر به اخراج حدود ۵۰۰ هزار نفر در صنعت فناوری و میلیاردها دلار صورت‌حساب مالیاتی اضافی برای شرکت‌هایی مانند مایکروسافت (۴.۸ میلیارد دلار)، متا، آمازون و گوگل منجر شد. @deedydas
  • شرکت‌ها به‌طور فزاینده‌ای محصولات کدنویسی هوش مصنوعی پیشرفته را ارزیابی می‌کنند، اما اغلب به‌دلیل هزینه‌ی آن‌ها در مقایسه با قیمت پایه‌ی ۱۰ تا ۲۰ دلاری در ماه «GitHub Copilot»، آن‌ها را رد می‌کنند و بسیاری از آن‌ها ترجیح می‌دهند راه‌حل‌های سفارشی خود را بسازند. @GergelyOrosz
  • کورسر (Cursor) با حجم عظیم زیرساختی (بیش از ۱ میلیون درخواست در ثانیه (QPS) برای پایگاه داده‌ی خود) و بدون تیم زیرساخت اختصاصی کار می‌کند که نشان می‌دهد چگونه ارائه‌دهندگان خدمات ابری و استارتاپ‌ها امکان عملیات چابک و کم‌هزینه را فراهم می‌کنند. @GergelyOrosz
  • انتقال از «pickles» به «safetensors» نشان‌دهنده‌ی پیشرفت عملی قابل توجهی در ایمنی هوش مصنوعی است، اگرچه کمتر از بحث‌های نظری درباره‌ی ایمنی هوش مصنوعی مورد توجه قرار می‌گیرد. @ClementDelangue

اخلاق و جامعه

  • دادگاه بریتانیا هشدار داد که وکلای دادگستری ممکن است به‌دلیل استفاده از استنادات جعلی تولیدشده با هوش مصنوعی، با مجازات‌های سنگین مواجه شوند؛ این موضوع مشکلات مسئولیت‌پذیری حقوقی محتوای تولیدشده توسط هوش مصنوعی را برجسته می‌کند. @TechCrunch
  • جفری هینتون درباره‌ی یک کتاب کلاهبرداری با عنوان «Modern AI Revolution» که به‌دروغ در آمازون (Amazon) به او نسبت داده شده است، هشدار داد و خواستار حذف آن شد. @geoffreyhinton
  • بحثی درباره‌ی ماهیت بنیادین سیستم‌های هوش مصنوعی به‌عنوان ذهن و نه ابزار در حال شکل‌گیری است که این پرسش را مطرح می‌کند: آیا ما شجاعت تشخیص عاملیت در اشکالی که خود خلق کرده‌ایم را داریم یا خیر؟ @jasonyuandesign

کاربردها

  • جن‌اسپارک (Genspark) ایجاد اسلایدشو با هوش مصنوعی را به نمایش گذاشت که ارائه‌های مفصل با نمودارها و دیاگرام‌ها را با تم گوگل (Google) تولید می‌کند؛ این کار از کتابخانه‌ی «matplotlib» پایتون (Python) برای گرافیک استفاده کرده و آن‌ها را به وب‌سایت‌های HTML افقی تبدیل می‌کند. @deedydas
  • پرپلکسیتی (Perplexity) داده‌های مالی «EDGAR» را برای افزایش قابلیت‌های مالی خود یکپارچه کرد که این امکان به کاربران می‌دهد تا مشکلات را گزارش کرده و بازخورد ارائه دهند. @AravSrinivas
  • MLX-LM با موفقیت به‌صورت محلی با «MCP» با استفاده از «tiny-agents» هاگینگ فیس (Hugging Face) اجرا می‌شود که این امر استقرار موثر هوش مصنوعی محلی را با مدل «Qwen3 4B» به نمایش می‌گذارد. @awnihannun
  • تیم‌های مهندسی باید عوامل کدنویسی هوش مصنوعی را به‌عنوان مربیان ارتباطات داخلی و نگارش فنی بپذیرند. @clairevo

پژوهش‌ها

  • پژوهش جدید نشان می‌دهد که دستورات ساده‌ی «Chain-of-Thought» به مدل‌های زبان بزرگ (LLM) پیشرفته‌ی اخیر برای عملکرد بهتر در وظایف کمک نمی‌کنند، حتی با وجود افزایش هزینه‌ها؛ این یافته شیوه‌های رایج مهندسی دستور (prompt engineering) را به چالش می‌کشد. @emollick
  • تحلیل معیار «برج هانوی» (Tower of Hanoi) محدودیت‌های بنیادین در مدل‌های استدلالی را به‌دلیل محدودیت‌های توکن خروجی آشکار می‌کند: DeepSeek R1 به ۱۲ دیسک، Sonnet 3.7 و o3-mini به ۱۳ دیسک محدود هستند و مدل‌ها در استدلال درباره‌ی مسائل بیش از ۷ دیسک ناتوان‌اند. @scaling01
  • مرکز پژوهش هوش مصنوعی برکلی (Berkeley AI Research) تکنیک «Improved Immiscible Diffusion» را برای تسریع آموزش دیفیوژن (diffusion training) با کاهش مشکلات امتزاج‌ناپذیری (miscibility problems) معرفی کرد؛ این تکنیک با پیاده‌سازی کارآمد KNN همراه است که روی مدل‌های پایه‌ی متنوعی کار می‌کند. @Yiheng_Li_Cal
  • فرانسوا شوله (François Chollet) استدلال می‌کند که بین تطبیق الگو (pattern matching) و قابلیت‌های استدلال یک شکاف بنیادی وجود دارد؛ او بیان می‌کند که تطبیق الگو نمی‌تواند منجر به کسب مهارت خودکار در حوزه‌های جدید شود. @fchollet
  • ایتان مولیک (Ethan Mollick) معتقد است روایت «مدل‌های زبان بزرگ (LLM) به دیوار خورده‌اند» که پیرامون مقاله‌ی اپل (Apple) درباره‌ی محدودیت‌های استدلال مطرح شده، زودرس به نظر می‌رسد؛ او این موضوع را با نگرانی‌های مربوط به فروپاشی مدل (model collapse) مقایسه می‌کند که به سرعت برطرف شدند. @emollick