اخبار هوش مصنوعی در 2025-06-08
مدلهای جدید هوش مصنوعی
- اوپنایآی (OpenAI) بهروزرسانیهایی را برای «Advanced Voice Mode» برای همهی کاربران پولی منتشر کرد که شامل الگوهای گفتاری شبیهتر به انسان با لکنتهای عمدی، خندههای عصبی و تغییرات صوتی است. @AndrewCurran_
- اوپنایآی (OpenAI) برای ماهها در حال آزمایش نسخههای مختلفی از قابلیتهای تفکر 4o بوده است؛ بهطوری که برخی کاربران استدلالهای خودبهخودی و فراخوانیهای احتمالی به مدلهای دیگری مانند o3 را تجربه کردهاند. @AndrewCurran_
- پرپلکسیتی (Perplexity) از نسخهی بهروز شدهی «Deep Research» با استفاده از زیرساخت جدید بکاند (backend) خبر داد که در حال حاضر با ۲۰ درصد از کاربران در حال آزمایش است. @AravSrinivas
- کووِن (Qwen) مدل جدید جاسازی (embedding) «Apache 2» با وزنهای باز (open-weights) و بهترین عملکرد را منتشر کرد. @simonw
- الوترای (EleutherAI) دو مدل زبان بزرگ (LLM) جدید را منتشر کرد که کاملاً با استفاده از متون دامنهی عمومی یا دارای مجوز آزاد آموزش دیدهاند؛ مدل ۲T با موفقیت به MLX منتقل شده تا برای استفادهی محلی روی مک (Mac) قابل دسترس باشد. @simonw
تحلیل صنعت
- گزارش شده که متا (Meta) در حال مذاکره با «Scale AI» برای سرمایهگذاری بیش از ۱۰ میلیارد دلار است؛ این اقدام نشاندهندهی سرمایهگذاری عمده در زیرساخت هوش مصنوعی است. @AndrewCurran_
- تغییرات کد مالیاتی «Section 174» از سال ۲۰۱۷، حقوق مهندسان را از کسر مالیاتی فوری به هزینههای قابل استهلاک ۵ ساله تبدیل کرد؛ این امر به اخراج حدود ۵۰۰ هزار نفر در صنعت فناوری و میلیاردها دلار صورتحساب مالیاتی اضافی برای شرکتهایی مانند مایکروسافت (۴.۸ میلیارد دلار)، متا، آمازون و گوگل منجر شد. @deedydas
- شرکتها بهطور فزایندهای محصولات کدنویسی هوش مصنوعی پیشرفته را ارزیابی میکنند، اما اغلب بهدلیل هزینهی آنها در مقایسه با قیمت پایهی ۱۰ تا ۲۰ دلاری در ماه «GitHub Copilot»، آنها را رد میکنند و بسیاری از آنها ترجیح میدهند راهحلهای سفارشی خود را بسازند. @GergelyOrosz
- کورسر (Cursor) با حجم عظیم زیرساختی (بیش از ۱ میلیون درخواست در ثانیه (QPS) برای پایگاه دادهی خود) و بدون تیم زیرساخت اختصاصی کار میکند که نشان میدهد چگونه ارائهدهندگان خدمات ابری و استارتاپها امکان عملیات چابک و کمهزینه را فراهم میکنند. @GergelyOrosz
- انتقال از «pickles» به «safetensors» نشاندهندهی پیشرفت عملی قابل توجهی در ایمنی هوش مصنوعی است، اگرچه کمتر از بحثهای نظری دربارهی ایمنی هوش مصنوعی مورد توجه قرار میگیرد. @ClementDelangue
اخلاق و جامعه
- دادگاه بریتانیا هشدار داد که وکلای دادگستری ممکن است بهدلیل استفاده از استنادات جعلی تولیدشده با هوش مصنوعی، با مجازاتهای سنگین مواجه شوند؛ این موضوع مشکلات مسئولیتپذیری حقوقی محتوای تولیدشده توسط هوش مصنوعی را برجسته میکند. @TechCrunch
- جفری هینتون دربارهی یک کتاب کلاهبرداری با عنوان «Modern AI Revolution» که بهدروغ در آمازون (Amazon) به او نسبت داده شده است، هشدار داد و خواستار حذف آن شد. @geoffreyhinton
- بحثی دربارهی ماهیت بنیادین سیستمهای هوش مصنوعی بهعنوان ذهن و نه ابزار در حال شکلگیری است که این پرسش را مطرح میکند: آیا ما شجاعت تشخیص عاملیت در اشکالی که خود خلق کردهایم را داریم یا خیر؟ @jasonyuandesign
کاربردها
- جناسپارک (Genspark) ایجاد اسلایدشو با هوش مصنوعی را به نمایش گذاشت که ارائههای مفصل با نمودارها و دیاگرامها را با تم گوگل (Google) تولید میکند؛ این کار از کتابخانهی «matplotlib» پایتون (Python) برای گرافیک استفاده کرده و آنها را به وبسایتهای HTML افقی تبدیل میکند. @deedydas
- پرپلکسیتی (Perplexity) دادههای مالی «EDGAR» را برای افزایش قابلیتهای مالی خود یکپارچه کرد که این امکان به کاربران میدهد تا مشکلات را گزارش کرده و بازخورد ارائه دهند. @AravSrinivas
- MLX-LM با موفقیت بهصورت محلی با «MCP» با استفاده از «tiny-agents» هاگینگ فیس (Hugging Face) اجرا میشود که این امر استقرار موثر هوش مصنوعی محلی را با مدل «Qwen3 4B» به نمایش میگذارد. @awnihannun
- تیمهای مهندسی باید عوامل کدنویسی هوش مصنوعی را بهعنوان مربیان ارتباطات داخلی و نگارش فنی بپذیرند. @clairevo
پژوهشها
- پژوهش جدید نشان میدهد که دستورات سادهی «Chain-of-Thought» به مدلهای زبان بزرگ (LLM) پیشرفتهی اخیر برای عملکرد بهتر در وظایف کمک نمیکنند، حتی با وجود افزایش هزینهها؛ این یافته شیوههای رایج مهندسی دستور (prompt engineering) را به چالش میکشد. @emollick
- تحلیل معیار «برج هانوی» (Tower of Hanoi) محدودیتهای بنیادین در مدلهای استدلالی را بهدلیل محدودیتهای توکن خروجی آشکار میکند: DeepSeek R1 به ۱۲ دیسک، Sonnet 3.7 و o3-mini به ۱۳ دیسک محدود هستند و مدلها در استدلال دربارهی مسائل بیش از ۷ دیسک ناتواناند. @scaling01
- مرکز پژوهش هوش مصنوعی برکلی (Berkeley AI Research) تکنیک «Improved Immiscible Diffusion» را برای تسریع آموزش دیفیوژن (diffusion training) با کاهش مشکلات امتزاجناپذیری (miscibility problems) معرفی کرد؛ این تکنیک با پیادهسازی کارآمد KNN همراه است که روی مدلهای پایهی متنوعی کار میکند. @Yiheng_Li_Cal
- فرانسوا شوله (François Chollet) استدلال میکند که بین تطبیق الگو (pattern matching) و قابلیتهای استدلال یک شکاف بنیادی وجود دارد؛ او بیان میکند که تطبیق الگو نمیتواند منجر به کسب مهارت خودکار در حوزههای جدید شود. @fchollet
- ایتان مولیک (Ethan Mollick) معتقد است روایت «مدلهای زبان بزرگ (LLM) به دیوار خوردهاند» که پیرامون مقالهی اپل (Apple) دربارهی محدودیتهای استدلال مطرح شده، زودرس به نظر میرسد؛ او این موضوع را با نگرانیهای مربوط به فروپاشی مدل (model collapse) مقایسه میکند که به سرعت برطرف شدند. @emollick