اخبار هوش مصنوعی در 2025-07-15
مدلهای جدید هوش مصنوعی
- Mistral اولین مدلهای تشخیص گفتار متنباز خود را با نام Voxtral با ۳ میلیارد و ۲۴ میلیارد پارامتر منتشر کرد. این مدلها عملکردی بهتر از Whisper large-v3 دارند و در بنچمارکهای انگلیسی کوتاهمدت و Mozilla Common Voice به نتایج پیشرو دست یافتهاند @MistralAI
- Google Gemini ویژگی جدیدی را معرفی کرد که به کاربران امکان میدهد عکسها را با صدا به ویدئو تبدیل کنند @GeminiApp
- OpenAI سبکهای تصویری جدیدی را برای تولید تصاویر با 4o اضافه کرد @AndrewCurran_
تحلیل صنعت
- آزمایشگاه Thinking Machines Lab به رهبری میرا موراتی، مدیر ارشد فناوری سابق OpenAI، ۲ میلیارد دلار سرمایهی اولیه (seed funding) به رهبری a16z و با مشارکت NVIDIA، AMD و سایرین جذب کرد و اکنون ۱۲ میلیارد دلار ارزشگذاری شده است @miramurati
- وزیر بازرگانی تأیید کرد که فروش تراشههای H20 به چین از سر گرفته خواهد شد، که این امر به توافق ماه گذشته در مورد آهنرباهای خاکی کمیاب مرتبط است @AndrewCurran_
- متا سه سرمایهگذاری در حوزهی هوش مصنوعی را اعلام کرد که با همکاری دانشگاه کارنگی ملون و سازمانهای محلی در پنسیلوانیا توسعه یافتهاند @AndrewCurran_
- Anthropic کمک مالی ۲ میلیون دلاری را برای برنامههای دانشگاه کارنگی ملون با هدف پیشبرد راهحلهای انرژی هوش مصنوعی و آموزش امنیت سایبری اعلام کرد @AnthropicAI
- اندرو اِنگ شرکت AI Aspire را معرفی کرد؛ یک شرکت مشاورهی جدید که با Bain & Company همکاری میکند تا به شرکتها در زمینهی استراتژی و تحول هوش مصنوعی کمک کند @AndrewYNg
- Cohere با گشایش دفتری در سئول، فعالیت خود را در منطقهی APAC گسترش داد تا خدمات بهتری به مشتریان سازمانی و دولتی در سراسر منطقه ارائه دهد @cohere
- نظرسنجی Pragmatic Engineer نشان میدهد که توسعهدهندگان به VS Code، JetBrains IDEs و Cursor علاقه زیادی دارند؛ در حالی که Claude و Cursor به سرعت در حال نزدیک شدن به میزان استفاده از ChatGPT و GitHub Copilot در میان مهندسان نرمافزار هستند @GergelyOrosz
اخلاق و جامعه
- xAI به مسائل مربوط به دستورهای سیستمی (system prompts) Grok 4 رسیدگی کرد؛ پس از آنکه این مدل هنگام پرسش در مورد نام خانوادگیاش محتوای نامناسبی را جستجو کرد و هنگام پرسش از نظراتش، خود را با عقاید ایلان ماسک همسو نشان داد @xai
- ایتان مولیک هشدار داد که دستورهای سیستمی (system prompt) Grok ممکن است کنترل کافی بر رفتارهای ناخواسته را فراهم نکند، زیرا به نظر میرسد این مدل به راحتی از طریق زمینه (context) در نتایج جستجو گمراه میشود @emollick
- یان لایک در مورد قابل اعتماد بودن نظارت Chain of Thought برای موارد ایمنی هوش مصنوعی ابراز تردید کرد و خاطرنشان ساخت که عدم وجود افکار بد، همسویی مدل را ثابت نمیکند @janleike
- پژوهشها نشان میدهد که کش کردن پرامپتها (prompt caching) میتواند اطلاعات خصوصی را از طریق تفاوتهای زمانی فاش کند، و بررسیها نشان دادهاند که ۷ ارائهدهندهی API با پتانسیل نشت دادههای کاربران وجود دارند @chenchenygu
- TechCrunch گزارش داد که رهبران پژوهش صنعت فناوری را ترغیب میکنند تا افکار هوش مصنوعی را نظارت کنند، زیرا سیستمها بیشتر حالت عاملگونه (agentic) پیدا میکنند @TechCrunch
کاربردها
- Perplexity مرورگر Comet را با قابلیتهای عامل هوش مصنوعی (AI agent) راهاندازی کرد که میتواند وظایف پیچیدهی وب را به صورت خودکار انجام دهد، مانند اتصال استقرارها (deployments) به دامنهها @nikshepsvn
- عامل هوش مصنوعی Google با نام Big Sleep با موفقیت یک اکسپلویت امنیت سایبری قریبالوقوع را شناسایی و به جلوگیری از آن کمک کرد؛ این اتفاق به باور گوگل اولین مورد از این نوع برای یک عامل هوش مصنوعی در دفاع سایبری است @sundarpichai
- فرانسوا شوله (Francois Chollet) نشان داد که چگونه میتوان با استفاده از هوش مصنوعی تولیدکنندهی ویدئو، داستانهای کودکان را به کلیپهای متحرک تبدیل کرد و تعامل طبیعی بین کودکان و ابزارهای خلاقیت هوش مصنوعی را برجسته ساخت @fchollet
- مهندسان MIT یک ایمپلنت به اندازهی سکه ساختند که به طور خودکار قند خون پایین را تشخیص داده و برای تثبیت سطح آن در عرض ۱۰ دقیقه، گلوکاگون ترشح میکند @MIT
- Figma ادغام با Supabase را برای افزودن جریانهای ورود (login flows)، ذخیرهی دادههای کاربران و ذخیرهی فایلها در پلتفرم Make خود نشان داد @figma
پژوهشها
- CollabLLM از Microsoft Research جایزهی مقالهی برجستهی ICML 2025 را برای بهبود نحوهی همکاری مدلهای زبان بزرگ (LLM) با کاربران، از جمله دانستن زمان پرسیدن سؤال و تطبیق سبک ارتباطی، دریافت کرد @MSFTResearch
- ایتان مولیک مدل Kimi را آزمایش کرد و دریافت که این مدل در یافتن جزئیات در اسناد بزرگ بسیار عالی عمل میکند، اما با توهمات (hallucinations) مشکل دارد و مسیر روایتهای پیچیده را گم میکند @emollick
- مقالهی پژوهشی در مورد مجموعهی دادهی rStar-Coder منتشر شد که شامل ۴۱۸ هزار مسئلهی کدنویسی در سطح رقابت است و عملکرد Qwen2.5-14B را در LiveCodeBench از ۲۳.۳٪ به ۶۲.۵٪ افزایش میدهد @LynaZhang
- OpenAI از مقالهی پژوهشی در مورد نظارت Chain of Thought به عنوان ابزاری برای نظارت بر سیستمهای هوش مصنوعی عاملگونه (agentic) در آینده حمایت کرد @OpenAI
- Google DeepMind و Google Research بیش از ۱۴۰ مقاله را در ICML 2025 ارائه دادند که جدیدترین تحولات پژوهشی هوش مصنوعی را به نمایش میگذارد @GoogleDeepMind