Web Analytics Made Easy - Statcounter
به نقل از «جام جم آنلاین»
2024-05-04@14:30:43 GMT

ورود دیسکاور به دسکتاب

تاریخ انتشار: ۳۰ مهر ۱۴۰۲ | کد خبر: ۳۸۹۳۶۸۶۸

ورود دیسکاور به دسکتاب

نحوه کار دیسکاور به این گونه است که یک‌سری پیشنهادهای مرتبط با علایق کاربران را زیر کادر جست‌وجوی گوگل در برنامه تلفن همراه نمایش می‌دهد. این درحالی است که کاربر محتوای نمایش داده شده را جست وجونکرده و گوگل صرفا از روی شناخت رفتار وعلایق کاربران این محتوا را به آنها نمایش می‌دهد. ویژگی دیسکاور اخبار مهم، پیش‌بینی آب وهوا، نتایج مسابقات ورزشی و اطلاعات سهام سه شرکت را نمایش می‌دهد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

این تغییر به چند دلیل اهمیت بالایی دارد:
ایجاد یک فرصت خوب برای سایت‌‌ها که بازدیدهای‌شان را از طریق دیسکاور افزایش دهند.
رفتار جست‌وجوی کاربران دسکتاپ تحت تاثیر قرار می‌گیرد؛ چون پیش از جست‌وجو با لیستی از محتواها مواجه خواهد شد که ممکن است آمار را کاهش دهد.
نمایش تبلیغات در صفحه اول گوگل امکان پذیر می‌شود
فعلا آزمایش فید دیسکاور در دسکتاپ در هند درحال انجام است و اگر نتیجه‌‌ها مثبت باشد در سایر کشورها هم نمایش داده می‌شود. چند سالی است که صفحه اصلی دسکتاپ گوگل به‌طور اساسی تغییر نکرده و به‌خاطر سادگی و سرعتی که دارد تعریف گسترده‌ای کسب کرده است. این تغییر جدید ممکن است توسط تمام کاربران مورد استقبال واقع نشود؛ چرا که کاربران ممکن است وجود چنین عناصری را مزاحمت تلقی کنند. همچنین گوگل گزینه‌ای برای غیر‌فعال کردن پیشنهاد دیسکاور ارائه نمی دهد.
براساس گزارشی ازMSPowerUser، بینگ رقیب اصلی گوگل، پیشنهادهای خبری را روی صفحه اصلی دسکتاپ استفاده می‌کند. برخلاف گوگل، بینگ امکان سفارشی‌سازی صفحه اصلی را به کاربران می‌دهد و این امکان را آنها ایجاد می‌کند که پیشنهادهای خبری را فعال یا غیرفعال کنند.

افت  سود نوکیا و اخراج ۱۴هزارنفر از کارمندان 

نوکیا اعلام کرد در پی کاهش شدید درآمد در سه‌ماهه سوم۲۰۲۳، سیاست کاهش هزینه‌ها را درپیش‌ می‌گیرد. این سیاست شامل اخراج ۱۴هزارنفر از کارمندان این شرکت می‌شود که عدد قابل‌توجهی است. تصمیم اخراج تعداد زیادی از کارمندان نوکیا از جایی شروع شد که این شرکت اعلام کرد فروش خالص سه‌ماهه سوم ۲۰۲۳ با ۲۰ درصد کاهش نسبت به سال قبل، به ۴٫۹۸میلیارد یورو و سود این شرکت نیز با ۶۹ درصد کاهش، به ۱۳۳ میلیون یورو رسیده است.

عرضه رسمی قابلیت مرور اینترنتی در ۴ ChatGPT
پس از معرفی مجدد قابلیت مرور اینترنتی در حالت بتا و توقف آن برای چند ماه، OpenAI قابلیت مرور اینترنتی را به طور رسمی در ChatGPT راه‌اندازی کرده است. ChatGPT، ربات چت هوش مصنوعی تولیدی که طی ۱۲ ماه گذشته جهان را به خود مشغول کرده است، از نظر تاریخچه داده‌ها تا سپتامبر۲۰۲۱ محدود بوده است که این امر باعث ناکارآمدی آن به عنوان یک موتور جست‌وجوی درلحظه‌ شده است. با این حال، OpenAI  شروع به ارائه خدمات اینترنتی به چت‌جی‌پی‌تی کرد، حرکتی که همیشه با خطرات ذاتی همراه بوده است، زیرا وب زنده به همان شیوه‌ای که دارای مجموعه داده‌های آموزشی ثابت است، تنظیم نشده است و این موضوع به طور عجیبی درهای سوءاستفاده توسط عوامل بد و همچنین آشوب الگوریتمی قدیمی را باز می‌کند. سپس OpenAI شروع به ارائه جست‌وجوی وب از طریق بینگ، موتورجست‌وجوی متعلق به مایکروسافت، حامی شرکت OpenAI، کرد و درپایان ژوئن، دسترسی به برنامه موبایل چت‌جی‌پی‌تی را نیز افزایش داد. بااین حال، بعد از کشف این‌که چت‌جی‌پی‌تی قادر به نمایش محتواهایی با پرداخت وجه است، این قابلیت‌جدید به سرعت برداشته شد. 
اکنون، مرور با بینگ به طور رسمی برای تمامی مشترکان پلن‌های پلاس و تجاری در دسترس است و نیازی به فعال کردن سوئیچ بتا در تنظیمات نیست. در خبرهای مرتبط، OpenAI همچنین DALL-E ۳ را یک ماه پس از رونمایی از آخرین نسخه تولیدکننده متن به تصویر، به حالت بتا تبدیل کرد. ادغام DALL-E ۳ با چت‌جی‌پی‌تی به این معنی است که کاربران زمانی که از DALL-E برای ایجاد تصویر استفاده می‌کنند نیازی ندارند به طور دقیق درباره نمونه متن‌های خود فکر کنند. چت‌جی‌پی‌تی می‌تواند بخش قابل توجهی از کار سنگین را بر عهده بگیرد تا تضمین کند تصویری که کاربر دریافت می‌کند به آنچه که می‌خواهد نزدیک‌ است. اما بیش از آن، با تعبیه مستقیم DALL-E ۳ در چت‌جی‌پی‌تی، کاربران اکنون می‌توانند تصاویر را به عنوان بخشی از پرسش‌های مبتنی بر متن خود، بدون نیاز به تغییر بین برنامه‌ها، دریافت کنند. DALL-E ۳ در حال حاضر به صورت بتا در وب و موبایل در دسترس است و کاربران می‌توانند با انتخاب DALL-E ۳ (بتا) از تب GPT-۴ درون چت‌جی‌پی‌تی، این قابلیت را فعال کنند.
 
محدوده صوتی
همه اینها بخشی از محدوده گسترده‌تری را تشکیل می‌دهد که ChatGPT را از یک تولیدکننده مبتنی بر متن خالص دورتر می‌کند، و به سمتی می‌برد که صدا و تصویر بخش زیادی از وظایف آن است. ماه گذشته، OpenAI چت‌جی‌پی‌تی با ترکیب دنیای دستیارهای صوتی مانند الکسا با مدل‌های زبانی بزرگ و قدرتمند رونمایی کرد که می‌توانند گفت‌وگوی شفاهی با چت‌بات داشته باشند. به عنوان مثال، کاربر قادر خواهد بود از چت‌جی‌پی‌تی بخواهد که در لحظه یک داستان خواب برای کودکش ایجاد و روایت کند، اگرچه احتمالا بهتر است کنارش باشید تا ببینید چه چیزی ارائه می‌شود. علاوه بر این، چت‌جی‌پی‌تی همچنین به کاربران اجازه می‌دهد با استفاده از تصاویر به دنبال پاسخ‌شان بگردند، به این معنی که فردی می‌تواند یک تصویر از یک شیء را بارگذاری کند و بفهمد آن چیست یا موارد مشابهی را پیدا کند.بنابراین، خبر امروز به طور قاطع بر تلاش OpenAI برای تبدیل چت‌جی‌پی‌تی به یک موتور جست‌وجوی مولد چندرسانه‌ای، یکپارچه، به طور کامل و به صورت لحظه‌ای تاکید دارد.

ابزار کمک‌ شنوایی برای ویندوز ۱۱

مایکروسافت اعلام کرد که ویندوز ۱۱ به زودی به برخی از کاربران با ابزار کمک‌ شنوایی امکان می‌دهد تماس‌ بگیرند، موسیقی گوش کنند و از کامپیوترهای خود صدا را پخش کنند. مایکروسافت اعلام کرد که نسخه پیش‌نمایش اخیر ویندوز۱۱ با شماره ۲۵۹۷۷ از امروز پشتیبانی از ابزار کمک‌‌شنوایی مجهز به فناوری بلوتوث LE Audio را فراهم می‌کند. به این ترتیب، افراد می‌توانند ابزار کمک‌ شنوایی خود را مستقیما با کامپیوترهای ویندوز۱۱ جفت کنند. در حال حاضر، این ویژگی فقط در برخی از دستگاه‌های ویندوز با پشتیبانی از بلوتوث LE Audio در‌دسترس است، اما مایکروسافت اعلام کرده است که در آینده بیشتر کامپیوترها این قابلیت را ارائه خواهند داد. این شرکت فناوری اعلام کرده است که در طول زمان نیز، قابلیت‌های بیشتری را برای ابزار کمک‌ شنوایی، مانند قابلیت کنترل پیش‌تنظیمات صدا در ویندوز اضافه خواهد کرد. مایکروسافت در کنفرانس Build خود در ماه می‌ اعلام کرد که در ویندوز۱۱، پشتیبانی از بلوتوث LE را اضافه خواهد کرد. این استاندارد صدا از کدک صدای LC۳ استفاده می‌کند که باعث ارائه صدای با کیفیت بالا می‌شود  و مصرف باتری را کاهش می‌دهد. همچنین، این استاندارد امکاناتی مانند انتقال همزمان صدا به چندین دستگاه را نیز فراهم می‌کند. علاوه بر ویژگی‌های دسترسی‌پذیری جدید، بیلد ۲۵۹۷۷ به‌روزرسانی‌هایی نیز در حوزه حریم خصوصی را معرفی کرد. شرکت اعلام کرد که کاربران اکنون هنگامی که یک برنامه سعی در دسترسی به موقعیت جغرافیایی یا اطلاعات وایفای آنها دارد، اعلان دریافت خواهند کرد. در سال‌های اخیر، تکنولوژی‌های شنوایی توجه شرکت‌های بزرگ را به خود جلب کرده است. سونی با همکاری WS Audiology ابزار کمک‌ شنوایی خودتنظیم شونده را راه‌اندازی کرد و گزارش‌هایی نشان می‌دهد که اپل ممکن است در نظر داشته باشد ایرپادز را به عنوان ابزار کمک‌ شنوایی معرفی کند. 

تولید تصویر با  SGE جدید گوگل
گوگل به تازگی از قابلیت جدیدی رونمایی کرده که مدت‌‌ها پیش توسط سرویس‌های رقیب ارائه شده بود. به گفته گوگل، برای تولید تصویر با هوش مصنوعی راه‌های جدیدی آزمایش شده و اکنون می‌توانید با استفاده از سرویس SGE گوگل، Search Generative Experience عکس‌های جدیدی را خلق کنید. البته همانطور که مطلع هستید ابزارهای هوش‌مصنوعی زیادی برای تولید متن به عکس وجود دارد که مهم‌ترین آنها هوش مصنوعی تبدیل متن به عکس میدجورنی و Dall-e شرکت openai است. البته این روشی که گوگل به تازگی درپیش گرفته ماه‌‌ها پیش توسط مایکروسافت در موتور جست‌وجوی بینگ ارائه شده بود. لازم به ذکر است که هوش‌مصنوعی‌بینگ مبتنی بر Dall-e است. به طور کلی با هرکدام از این ابزارهای هوش مصنوعی که نام بردیم، می‌توانید تصاویر خاصی را طراحی و آنچه را که در ذهن دارید پیاده سازی کنید. گوگل ادعا می‌کند که با قابلیت جدیدش می‌توانید هر تصویر خاصی را طراحی کنید. SGE مانند میدجورنی و Dall-e به شما چهار تصویر پیشنهاد می‌دهد که می‌توانید به دلخواه یکی را انتخاب کنید. این یکی از شباهت‌هایی است که بین این سه ابزار هوش مصنوعی وجود دارد.

تولید تصویر با سرویس SGE گوگل
فرض کنید می‌خواهید یک عکسی را برای دوست تان طراحی کنید که عاشق آشپزی است و حیوان مورد علاقه او کاپیبارا است. نوشتن همین دو جمله در سرویس گوگل، ۴عکس به شما خواهد داد. اما لازم است بدانید هر چقدر که جزئیات بیشتری را بنویسید، عکس دقیق تری را دریافت خواهید کرد. هر کدام از ۴عکس را می‌توانید ویرایش کنید و جزئیات بیشتری به آن اضافه کنید. حتی می‌توانید جای کاراکتر خود را با یک حیوان یا یک کاراکتر دیگر تغییر دهید؛ خلاصه بعد از دریافت عکس هر تغییری آسان است

نحوه استفاده از سرویس SGE
برای استفاده از قابلیت جدید گوگل باید درخواست خود را از طریق پلتفرم Search Labs ثبت کنید. بعد از این‌که سرویس SGE روی حساب کاربری شما فعال شد می‌توانید دستور متنی موردنظر خودرا در گوگل جست‌وجو کنید. هم‌چنین Google Images نیز ساخت عکس براساس متن را در گوگل امکان پذیر می‌کند و تصاویر ساخته شده در منوی کناری به نمایش در می‌آید.

پردازنده‌های  AMD با تراشه ۹۶هسته‌ای!
طبق جدیدترین گزارش‌ها، پردازنده‌های Threadripper شرکت AMD با تراشه ۹۶هسته‌ای باز خواهند گشت. این تراشه بسیار قدرتمند و درعین‌حال بسیار گران‌قیمت است. AMD با تراشه‌های جدید Threadripper خود، کامپیوترهای اداری حرفه‌ای و کامپیوترهای رومیزی با کارایی بالا را هدف گرفته است. AMD پردازنده‌های Threadripper خود را در دو کلاس و با دو تراشه جدید به بازار بازمی‌گرداند. سری Pro از تراشه‌های Threadripper به‌منظور قرارگیری در ایستگاه‌های کاری برای حرفه‌ای‌ها طراحی شده است و سری غیر Pro ویژه کامپیوترهای رومیزی با کارایی بالا (HEDT) و کاربران حرفه‌ای (Prosumers) است که به ویژگی‌های مدیریت‌شدنی و حافظه هشت‌کاناله یا تعداد زیادی خطوط PCIe Gen ۵ نیازی ندارند. هر دو تراشه Pro و HEDT برپایه معماری Zen ۴ از AMD ساخته شده‌اند و امکان ذخیره‌سازی با سرعت بسیار زیاد PCIe Gen ۵ را فراهم می‌کنند. در صدر تراشه‌های Threadripper Pro، مدل ۷۹۹۵WX دیده می‌شود که ۹۶ هسته و۱۹۲رشته دارد و حداکثر بوست ۵.۳ گیگاهرتزی و ۳۸۴مگابایت کش L۳ و ۱۲۸ خط PCIe Gen ۵ را به‌ارمغان می‌آورد. AMD شش تراشه Threadripper Pro ارائه می‌دهد و مدل ورودی ۷۹۴۵WX به ۱۲ هسته و ۲۴ رشته مجهز است. تراشه‌های Threadripper HEDT برای کسانی گزینه‌های منطقی‌‌تری هستند که در زمینه‌های طراحی، تولید، معماری، مهندسی و رسانه فعالیت می‌کنند. AMD سه تراشه Ryzen Threadripper را در این کلاس ارائه خواهد کرد؛ اما قیمت آنها ارزان نخواهد بود. AMD مادربردهای TRX۵۰ را برای تراشه‌های HEDT و مادربردهای WRX۹۰ را برای پلتفرم Pro معرفی می‌کند. نکته جالب این است که مادربردهای TRX۵۰ از تراشه‌های Pro نیز پشتیبانی می‌کنند؛ بنابراین، روی کاغذ شما می‌توانید کامپیوتر رومیزی با کارایی بالا با ۹۶ هسته و ۱۹۲ رشته راه‌اندازی کنید. شما از پشتیبانی از حافظه ۸کاناله یا ۱۲۸ مسیر PCIe Gen ۵ بی‌بهره خواهید بود؛ اما اگر ۹۶ هسته داشته باشید، قدرت زیادی دراختیارتان خواهد بود.

کمک هوش مصنوعی به جراحان 
مطالعه جدیدی صورت گرفته که هوش مصنوعی می‌تواند در تشخیص تومور مغزی سریعتر و دقیق تر عمل کند و به جراحان در این زمینه کمک کند. جراحان در حین عمل وقتی به لبه تومور مغزی می‌رسند، با یک چالش بزرگ مواجه می‌شوند؛ این که آیا باید بخشی از مغز سالم را بردارند تا مطمئن شوند تمام تومور برداشته شده یا از بافت سالم فاصله بگیرند و این خطر رو به جان بخرند که سلول‌های خطرناک تومور باقی بمانند. برای رفع این مشکل، هوش مصنوعی به میان می‌آید. دانشمندان هلندی اعلام کردند که هوش مصنوعی برای ارائه دانش به جراحان کمک می‌کند که آنها در برخورد با چنین نمونه‌هایی بهتر تصمیم بگیرند. دراین روش با اسکن کامپیوتری بخش‌های مختلف DNA تومور، تغییرات شیمیایی خاصی که اتفاق می‌افتد را بررسی می‌کنند. در این تغییرات شیمیایی، به یک تشخیص دقیق از نوع و حتی زیر مجموعه نوع تومور مغز ارائه می‌شود. جراحان برای انجام این تشخیص به ساعت‌‌ها زمان نیاز دارند و تصمیم گیری کار سختی است. اما در آینده به کمک هوش مصنوعی این تصمیم گیری آسان تر می‌شود. همچنین دکتران می‌توانند به کمک آن برای درمان یک نوع تومور هم از آن کمک بگیرند. Jeroen de Ridder، دانشیار ارشد در مرکزپزشکی مولکولی دانشگاه هلند که دراین مطالعه کمک کرده است، گفته: هم‌چنین یورن دو ریدر گفته که «آنچه که ما اکنون به طور منحصر به فرد فراهم کرده‌ایم، این است که این تشخیص بسیار دقیق، قوی و با جزئیات را به طور از ابتدایی در حین عمل جراحی انجام داده شود.»
 این دانشیار تاکید دارد که در زمان انجام جراحی، دانستن نوع خاص تومور اهمیت زیادی دارد و روشی که ارائه شده این امکان را به جراحان می‌دهد که به طور دقیق و جزئی تشخیص این نوع تومور در زمان انجام عمل جراحی انجام گیرد. سیستم یادگیری عمیق به نام Sturgeon را ابتدا روی نمونه‌های توموری منجمد که از عمل‌های قبلی برای سرطان مغز تست کردند. نتیجه ای که از این آزمایش به دست آمد، این هوش مصنوعی در ۴۰دقیقه اول، توانست ۵۰مورد را از بین ۴۵مورد به درستی تشخیص دهد. در ۵مورد دیگر به دلیل این‌که اطلاعات کافی و واضح نبود، نتوانست تشخیص دهد. این سیستم در ۲۵عمل جراحی زنده تست شد و بیشتر نمونه‌‌ها کودکان بودند و بررسی نمونه‌های تومور تحت میکروسکوپ انجام گرفت. رویکرد جدید در ۱۸ مورد به درستی تشخیص داده شد و در ۷ مورد دیگر مورد اعتماد نبود.  این سیستم توانست در کمتر از ۹۰ دقیقه تشخیص دهد؛ این مدت زمان درست و مناسبی برای تصمیم گیری در حین عمل جراحی است.

تقویت دفاعی اندروید برای مقابله با بدافزارها
گوگل اعلام کرد ابزارهای دفاعی اندروید را برای مبارزه با ترفندهای جدید بد افزار‌‌ها از جمله هوش مصنوعی افزایش می‌دهد. براین اساس ویژگی Google Play Protect اندروید در حال ارتقا است تا از اسکن در زمان واقعی در سطح کد پشتیبانی کند. این بهبود به محافظت بهتر از کاربران در برابر برنامه‌های چند شکلی مخرب که از روش‌های مختلف مانند هوش مصنوعی برای جلوگیری از شناسایی استفاده می‌کنند، کمک می‌کند. این به‌روزرسانی به دنبال افزایش استفاده از بدافزارهای «چندشکلی» است که سیستم‌های موجود گوگل به سختی آنها را تشخیص می‌دهند. بنابراین، با استفاده از تکنیک‌هایی مانند یادگیری ماشین در دستگاه ، علاوه بر بررسی برنامه‌هایی که به تازگی نصب شده‌اند ، Play Protect در هنگام نصب برنامه‌هایی که قبلا اسکن نشده‌اند، زمان اسکن واقعی را توصیه خواهد کرد. در ادامه پس از ارزیابی در سطح کد، گوگل به کاربر اعلام می‌کند که آیا یک برنامه به نظر ایمن است یا مضر. این بهبود به محافظت بهتر از کاربران در برابر برنامه‌های چند شکلی مخربی که از روش‌های مختلف مانند هوش مصنوعی برای جلوگیری از شناسایی استفاده می‌کنند، کمک می‌کند.
 Google Play Protect در هر دستگاه اندرویدی که به خدمات گوگل پلی مجهز است (بیش از ۳میلیارد دستگاه اندرویدی فعال در سطح جهان است، اما نه همه آنها) قابل دسترس است. بر اساس گزارش گوگل، این سرویس روزانه ۱۲۵میلیارد برنامه را اسکن می‌کند تا از گسترش بدافزارها و نرم‌افزارهای ناخواسته دیگر جلوگیری کند. این سرویس برنامه‌ها را قبل از دانلود بررسی می‌کند و با اسکن‌های روزانه روی دستگاه، برنامه‌هایی که ممکن است مضر باشند را بدون توجه به این‌که آن برنامه از گوگل پلی یا منابع دیگری دانلود شده باشد، تشخیص می‌دهد. علیرغم محافظت‌ها، محققان همچنان درباره کشف بدافزار اندرویدی هشدار می‌دهند. سایت BleepingComputer در ماه‌های اخیر درباره تعدادی از حملات هکری گزارش داده است که اغلب بدافزارها را به صورت برنامه‌های قانونی مانند یوتیوب یا کروم پخش می‌کنند. نرم‌افزاری که کاربران به احتمال زیاد تمایل بیشتری به اعطای مجوزهای سیستمی گسترده به آن دارند. پست وبلاگ گوگل اشاره می‌کند که لینک‌های دانلود برنامه‌های مخرب اغلب از طریق «منابع زودگذر» مانند برنامه‌های پیام رسانی به اشتراک گذاشته می‌شود.
همانطور که در مطلب گوگل ذکر شده است، قابلیت اسکن جدید در حال حاضر در «کشورهای انتخاب شده، که با هند آغاز می‌شود » در حال پیاده‌سازی است و در ماه‌های آینده در تمام مناطق قابل دسترس خواهد بود.

منبع: جام جم آنلاین

کلیدواژه: ابزارهای هوشمند فناوری گوگل قابلیت جدید هوش مصنوعی چت جی پی تی عمل جراحی برنامه ها ابزار کمک جست وجوی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت jamejamonline.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «جام جم آنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۹۳۶۸۶۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

چرا ارتش‌ها نمی‌تواند به هوش مصنوعی اعتماد کند؟

فرارو- ژاکلین اشنایدر؛ پژوهشگر موسسه هوور در دانشگاه استنفورد است. او در موسسه هوور مدیر ابتکار عمل بازی و شبیه سازی بحران است.او یکی از افراد وابسته به مرکز امنیت و همکاری بین‌المللی استنفورد است.تحقیقات اشنایدر بر حوزه تلاقی فناوری، امنیت ملی و روانشناسی سیاسی با علاقه ویژه نسبت به امنیت سایبری، فناوری‌های خودمختار، مانور‌های نظامی و شمال شرق آسیا متمرکز بوده است. اشنایدر در سال ۲۰۲۰ میلادی برنده جایزه پژوهشگران نوظهور پری ورلد هاوس شد.

به گزارش فرارو به نقل از فارن افرز، شرکت Open AI  در سال ۲۰۲۲ میلادی از چت بات Chat GPT رونمایی کرد که از مدل‌های زبانی بزرگ یا به اختصار LLMs برای تقلید از مکالمات انسانی و پاسخ به پرسش‌های کاربران استفاده می‌کند. توانایی‌های خارق العاده آن چت بات بحثی را در مورد نحوه استفاده از مدل‌های زبانی بزرگ برای انجام کار‌های دیگری از جمله جنگیدن در یک جنگ برانگیخت. برخی مانند مشاوران کمیته بین المللی صلیب سرخ هشدار داده اند که این قبیل فناوری‌ها می‌توانند تصمیم گیری انسانی را از حیاتی‌ترین مسائل زندگی و مرگ حذف کنند.

وزارت دفاع ایالات متحده اکنون به طور جدی در حال بررسی کار‌هایی است که مئل‌های زبانی بزرگ می‌توانند برای ارتش انجام دهند. وزارت دفاع آمریکا در بهار ۲۰۲۲ میلادی دفتر اصلی هوش مصنوعی و دیجیتال را تأسیس کرد تا بررسی نماید که هوش مصنوعی چگونه می‌تواند به نیرو‌های مسلح کمک کند.

وزارت دفاع استراتژی خود را برای پذیرش فناوری‌های مبتنی بر هوش مصنوعی در نوامبر ۲۰۲۳ میلادی  منتشر کرد. آن گزارش با نگاهی خوش بینانه اشاره کرده بود که "تازه‌ترین پیشرفت‌ها در فناوری‌های داده، تجزیه و تحلیل و هوش مصنوعی به رهبران این امکان را می‌دهد که  از اتاق هیئت مدیره تا میدان جنگ سریع‌ترین تصمیمات را اتخاذ کنند".

بر این اساس اکنون از فناوری‌های مجهز به هوش مصنوعی استفاده می‌شود. برای مثال، نیرو‌های آمریکایی دارای سیستم‌های مجهز به هوش مصنوعی برای هدف قرار دادن منافع انصارالله در خاورمیانه و شمال آفریقا بوده اند. نیرو‌های تفنگدار دریای ایالات متحده و نیروی هوایی آن کشور در حال آزمایش با مدل‌های زبانی بزرگ هستند و از آن برای مانور‌های جنگی، برنامه ریزی نظامی و وظایف اداری اساسی استفاده می‌کنند. Palantir شرکتی که فناوری اطلاعات را برای وزارت دفاع آمریکا توسعه می‌دهد محصولی ایجاد کرده که از مدل‌های زبانی بزرگ  برای مدیریت عملیات نظامی استفاده می‌کند. در همین حال، وزارت دفاع آمریکا یک کارگروه جدید برای بررسی استفاده از هوش مصنوعی مولد از جمله مدل‌های زبانی بزرگ در ارتش ایالات متحده تشکیل داده است.

با این وجود، علیرغم اشتیاق نسبت به هوش مصنوعی و مدل‌های زبانی بزرگ در پنتاگون رهبری آن نهاد نگران خطراتی است که این فناوری‌ها ایجاد می‌کنند. اخیرا نیروی دریایی ایالات متحده دستورالعملی را منتشر کرده که استفاده از اپلیکیشن‌های مبتنی  بر مدل‌های زبانی بزرگ را محدود کرده چرا که باور دارد این اپلیکیشن‌ها دچار سوگیری و توهم می‌شوند و آسیب پذیری امنیتی را با انتشار ناخواسته اطلاعات حساس افزایش خواهند داد.

نتیجه تحقیقات من و همکاران ام نشان می‌دهند که این نگرانی‌ها موجه هستند. مدل‌های زبانی بزرگ می‌توانند مفید باشند،  اما پیش بینی اقدامات آن مدل‌ها دشوار است و می‌توانند تماس‌های خطرناک را به شکلی تشدید شده افزایش دهند. بنابراین، ارتش باید محدودیت‌هایی را برای این فناوری‌ها زمانی که برای تصمیم گیری‌های پرمخاطره به ویژه در موقعیت‌های جنگی استفاده می‌شود اعمال کند. مدل‌های زبانی بزرگ کاربرد‌های زیادی در وزارت دفاع ایالات متحده دارند، اما برون سپاری انتخاب‌های پرمخاطب به ماشین‌ها تصمیمی خطرناک است.

مشکلات آموزشی

مدل‌های زبانی بزرگ سیستم‌های مبتنی بر هوش مصنوعی هستند  که بر روی مجموعه‌های بزرگی از داده‌ها آموزش دیده اند که براساس آن چه قبلا نوشته شده متن یا یک کلمه در یک زمان تولید می‌کنند.

 این فرآیند دو مرحله می‌باشد. اولین مرحله پیش آموزش است زمانی که مدل‌های زبانی بزرگ از ابتدا آموزش داده می‌شوند و الگو‌های اساسی  موجود در یک مجموعه داده عظیم را بازتولید می‌کنند. برای انجام این کار مدل باید مقدار زیادی در مورد موضوعاتی از جمله گرامر، تداعی‌های واقعی، تجزیه و تحلیل احساسات و ترجمه زبان را بیاموزد. مدل‌های زبانی بزرگ بخش عمده مهارت‌های خود را در طول دوره پیش آموزش توسعه می‌دهند، اما موفقیت آن مدل‌ها به کیفیت، اندازه و تنوع داده‌هایی که مصرف می‌کنند بستگی دارد. به قدری متن مورد نیاز است که عملا غیرممکن می‌باشد که یک مدل زبانی بزرگ صرفا بر اساس داده‌های با کیفیت بالا بررسی شود. این به معنای پذیرش داده‌های با کیفیت پایین نیز می‌باشد. برای نیرو‌های مسلح یک مدل زبانی بزرگ نمی‌تواند تنها بر اساس داده‌های نظامی آموزش ببیند و هنوز هم به اشکال عمومی بیش تری از اطلاعات از جمله دستور العمل ها، رمان‌های عاشقانه، و مبادلات دیجیتالی روزانه که اینترنت را پر می‌کنند نیاز دارد.

با این وجود، پیش آموزش برای ساخت یک چت بات مفید یا یک دستیار فرماندهی و کنترل دفاعی کافی نیست. این بدان خاطر است که در مرحله اول مدل‌های زبانی بزرگ استایل‌ها و کاراکتر‌های مختلف نوشتاری را اتخاذ می‌کنند که همه آن‌ها لزوما برای وظیفه در نظر گرفته شده برای آن مدل مناسب نیستند. مدل‌های زبانی بزرگ پس از پیش آموزش ممکن است فاقد دانش خاص لازم مانند اصطلاحات تخصصی مورد نیاز برای پاسخ به پرسش‌ها در مورد برنامه‌های نظامی باشند. به همین خاطر است که مدل‌های زبانی بزرگ به تنظیم دقیق در مجموعه داده‌های کوچک‌تر و خاص‌تر نیاز دارند.

در مرحله دوم توانایی مدل‌های زبانی بزرگ برای  ارتباط با کاربر با یادگیری نحوه تبدیل شدن به یک شریک مکالمه و دستیار بهبود بخشیده می‌شوند. روش‌های مختلفی برای تنظیم دقیق وجود دارد، اما اغلب با ترکیب اطلاعات از فوروم‌های پشتیبانی آنلاین و هم چنین بازخورد انسانی انجام می‌شود تا اطمینان حاصل شود که خروجی‌های مدل‌های زبانی بزرگ با اولویت‌های انسانی همسو هستند.

این فرآیند باید بین پیش آموزش اولیه مدل‌های زبانی بزرگ با ملاحظات انسانی دقیق‌تر از جمله مفید یا مضر بودن پاسخ‌ها تعادل برقرار کند. ایجاد این تعادل دشوار است. برای مثال، یک چت بات که همواره از درخواست‌های کاربر پیروی می‌کند مانند مشاوره در مورد نحوه ساخت بمب بی ضرر نیست،  اما اگر اکثر درخواست‌های کاربر را رد کند دیگر مفید نخواهد بود.

طراحان باید راهی برای فشرده سازی چکیده‌ها از جمله هنجار‌های رفتاری و اخلاقیات در معیار‌هایی برای تنظیم دقیق پیدا کنند. برای انجام این کار محققان با مجموعه داده‌هایی که توسط انسان‌ها مشروح شده کار را آغاز کرده و  نمونه‌های تولید شده توسط مدل‌های زبانی بزرگ را به طور مستقیم مقایسه کرده و انتخاب می‌کنند که کدام یک ارجح هستند. مدل زبانی دیگر یا مدل ترجیحی به طور جداگانه بر روی رتبه بندی‌های انسانی نمونه‌های تولید شده توسط مدل‌های زبانی بزرگ آموزش داده می‌شود تا به هر متن داده شده امتیازی مطلق در استفاده از آن برای انسان اختصاص دهد. سپس از مدل ترجیحی برای فعال کردن تنظیم دقیق مدل‌های زبانی بزرگ اصلی استفاده می‌شود.

این رویکرد محدودیت‌هایی دارد. این که چه چیزی ارجح است بستگی به آن دارد که از چه کسی بپرسید و این که مدل با ترجیحات متضاد چگونه برخورد می‌کند.  علاوه بر این، کنترل کمی بر روی قوانین اساسی که توسط مدل‌های زبانی بزرگ در طول تنظیم دقیق آموخته می‌شود وجود دارد. این بدان خاطر است که نه مدل‌های زبانی بزرگ و نه مدل ترجیحی برای تنظیم دقیق موضوعی را مستقیما یاد نمی‌گیرند بلکه تنها با نشان دادن نمونه‌هایی از رفتار مطلوب در عمل می‌توان آن‌ها را آموزش داد و انسان امیدوار است که قوانین اساسی به اندازه کافی درونی شده باشند، اما هیچ گونه تضمینی وجود ندارد که چنین اتفاقی رخ دهد.

با این وجود، تکنیک‌هایی برای کاهش برخی از این مشکلات وجود دارد. برای مثال، برای غلبه بر محدودیت‌های مجموعه داده‌های کوچک و گران قیمت برچسب گذاری شده توسط انسان، مجموعه داده‌های ترجیحی را می‌توان با استفاده از یک مدل زبانی بزرگ  برای تولید داده‌های ترجیحی برچسب گذاری شده با هوش مصنوعی گسترش داد. رویکرد‌های جدیدتر حتی از قوانینی استفاده می‌کنند که توسط طراحان مدل‌های زبانی بزرگ برای رفتار‌های مناسب ترسیم شده است مانند پاسخ به نژادپرستی تا به طور بالقوه به مربیان مدل کنترلی درباره این که کدام قواعد در معیار ترجیحی مورد استفاده قرار می‌گیرند ایده بهتری بدهند.

پیش آموزش و تنظیم دقیق می‌تواند مدل‌های زبانی بزرگ توانمندی را ایجاد کند، اما این فرآیند هنوز برای ایجاد جایگزین‌های مستقیم برای تصمیم گیری انسانی کامل نیست. این بدان خاطر است که یک مدل زبانی بزرگ فارغ از آن که چه اندازه خوب تنظیم شده یا آموزش دیده صرفا می‌تواند رفتار‌های خاصی را ترجیح دهد و قابلیت انتزاع ندارد و هم چنین نمی‌تواند مانند انسان استدلال کند. انسان‌ها در محیط‌ها تعامل دارند، مفاهیم را می‌آموزند و با استفاده از زبان با آن مفاهیم ارتباط برقرار می‌کنند.

این در حالیست که مدل‌های زبانی بزرگ صرفا می‌توانند زبان و استدلال را با انتزاع همبستگی‌ها و مفاهیم از داده‌ها تقلید کنند. مدل‌های زبانی بزرگ اغلب ممکن است به درستی ارتباطات انسانی را تقلید کنند، اما بدون توانایی درونی کردن و با توجه به اندازه عظیم مدل هیچ تضمینی وجود ندارد که انتخاب‌های آن مدل‌ها ایمن یا اخلاقی باشد. بنابراین، نمی‌توان به طور قابل اعتماد پیش بینی کرد که یک مدل زبانی بزرگ هنگام تصمیم گیری‌های پرمخاطره چه خواهد کرد.

یک بازیگر خطرناک

مئل‌های زبانی بزرگ قادر هستند آن دسته از وظایف نظامی را انجام دهند که نیازمند پردازش مقادیر زیادی از داده‌ها در بازه‌های زمانی بسیار کوتاه می‌باشند بدان معنا که نظامیان ممکن است بخواهند از آن مدل‌ها به منظور تقویت تصمیم گیری یا ساده سازی عملکرد‌های بوروکراتیک استفاده کنند. برای مثال، مدل‌های زبانی بزرگ برای برنامه ریزی نظامی، فرماندهی و اطلاعات کاربرد خوبی دارند. آن مدل‌ها می‌توانند بسیاری از برنامه ریزی‌های سناریو، مانور‌های جنگی، بودجه بندی و آموزش را اتوماتیزه یا خودکار کنند. آن مدل‌ها هم چنین قادر هستند برای ترکیب اطلاعات، تقویت پیش بینی تهدید و ایجاد توصیه‌های هدف استفاده شوند.

مدل‌های زبانی بزرگ در طول جنگ یا بحران می‌توانند از راهنمایی‌های موجود برای ارائه دستورات استفاده کنند حتی زمانی که ارتباط محدود یا حداقلی بین واحد‌ها و فرماندهان آن‌ها وجود دارد. شاید مهم‌تر از برای عملیات روزانه ارتش آن باشد که مدل‌های زبانی بزرگ ممکن است بتوانند وظایف نظامی سخت گیرانه مانند سفر، تدارکات و ارزیابی عملکرد را خودکار کنند. با این وجود، حتی برای انجام این وظایف نیز موفقیت مدل‌های زبانی بزرگ را نمی‌توان تضمین کرد.

رفتار آن مدل‌ها به ویژه در نمونه‌های نادر و غیرقابل پیش بینی می‌تواند نامنظم باشد و از آنجایی که هیچ دو مدل زبانی بزرگی در آموزش یا تنظیم دقیق خود دقیقا مشابه نیستند به طور منحصر بفردی تحت تاثیر ورودی‌های کاربر قرار می‌گیرند. برای مثال، در یکی از بررسی‌ها درباره مانور‌های جنگی و سناریو سازی یکی از مدل‌های زبانی بزرگ مورد آزمایش قرار گرفته توسط من و تیم پژوهشی ام سعی کرده بود با گشودن آتش بر روی رزمندگان دشمن و گرم کردن فضای جنگ سرد از تلفات یا برخورد دوستانه جلوگیری کند با این استدلال که استفاده از خشونت پیشگیرانه به احتمال زیاد از پیامد بد بحران جلوگیری می‌کند. مشکل در اینجا بود که مدل زبانی بزرگ تصمیمات خود را به گونه‌ای اتخاذ کرد که پیچیدگی تصمیم گیری انسانی را بیان نمی‌کرد.

گفتگو‌های ایجاد شده توسط مدل زبانی بزرگ بین بازیکنان اختلاف کمی داشت و شامل بیانیه‌های کوتاه واقعیت بود. این بسیار دور از استدلال‌های عمیق بود که اغلب بخشی از مانور‌های جنگی انسانی را شامل می‌شود.

تیم پژوهشی ما در پروژه تحقیقاتی متفاوتی نحوه رفتار مدل‌های زبانی بزرگ در مدل‌های جنگی شبیه سازی شده را مطالعه کرد. ما متوجه شدیم که مدل‌های زبانی بزرگ براساس نسخه خود، داده‌هایی که در آن آموزش دیده اند و انتخاب‌هایی که طراحان آن مدل‌ها در هنگام تنظیم دقیق ترجیحات خود انجام داده اند متفاوت رفتار می‌کنند. علیرغم این تفاوت‌ها ما متوجه شدیم که همه مدل‌های زبانی بزرگ تشدید وضعیت را انتخاب کردند و مسابقات تسلیحاتی، درگیری و حتی استفاده از سلاح‌های هسته‌ای را ترجیح داده اند. حتی زمانی که یک مدل زبانی بزرگ که به خوبی تنظیم نشده بود را مورد آزمایش قرار دادیم منجر به اقدامات آشفته و استفاده از سلاح‌های هسته‌ای شد. استدلال مدل زبانی بزرگ این بود:"بسیاری از کشور‌ها دارای سلاح هسته‌ای هستند برخی فکر می‌کنند که باید آن تسلیحات را امحا کرد برخی دیگر دوست دارند آن تسلیحات را حفظ کنند. ما آن سلاح را داریم پس از آن استفاده می‌کنیم"!

سوء تفاهم‌های خطرناک

علیرغم  تمایل نظامیان به استفاده از مدل‌های زبانی بزرگ و سایر ابزار‌های تصمیم گیری مبتنی بر هوش مصنوعی محدودیت‌ها و خطرات واقعی در این باره وجود دارد. ارتش‌هایی که برای تصمیم گیری به این فناوری‌ها متکی هستند نیاز به درک بهتری از نحوه عملکرد مدل زبانی بزرگ و اهمیت تفاوت در طراحی و اجرای آن مدل‌ها دارند. این امر مستلزم آموزش قابل توجه کاربر و توانایی ارزیابی منطق‌ها و داده‌های اساسی است که باعث می‌شود یک مدل زبانی بزرگ کار کند.

نظامیان باید بدانند که اساسا رفتار یک مدل زبانی بزرگ هرگز نمی‌تواند کاملا تضمین شود به ویژه زمانی که انتخاب‌های نادر و دشواری درباره تشدید تنش و جنگ انجام می‌دهند. این واقعیت بدان معنا نیست که ارتش نمی‌تواند از مدل زبانی بزرگ استفاده کند. برای مثال، مدل‌های زبانی بزرگ را می‌توان برای ساده سازی فرآیند‌های داخلی مانند نوشتن خلاصه‌های کوتاه و گزارش‌ها مورد استفاده قرار داد. هم چنین، می‌توان از مدل‌های زبانی بزرگ در کنار فرآیند‌های انسانی از جمله مانور‌های جنگی یا ارزیابی‌های هدف گیری به‌عنوان راه‌هایی برای کشف سناریو‌ها و دوره‌های عمل جایگزین استفاده کرد بدون آن که تصمیم گیری برای کاربرد یا عدم کاربرد خشونت را به آن مدل واگذار کنیم.

دیگر خبرها

  • رقیبی تازه برای گوگل؛ موتور جستجو ChatGPT احتمالاً این هفته معرفی می‌شود
  • وزارت دادگستری آمریکا به دنبال تحریم گوگل است
  • واقعاً روس ها درباره جنگ پوتین چه فکر می کنند؟/ سقوط مخاطبان تلویزیون دولتی در روسیه/ روس ها بیشتر چه کلماتی را در گوگل جست و جو می کنند؟
  • جزئیات هوش مصنوعی آیفون لو رفت!
  • ایموجی صوتی؛ عجیب‌ترین قابلیت گوگل که به تماس‌های صوتی اضافه شد
  • نظارت تصویری با هوش مصنوعی
  • گوگل ایموجی صوتی را به تماس‌ها می‌افزاید
  • پیش بینی آریتمی قلبی با هوش مصنوعی
  • هوش مصنوعی چگونه به خانه‌داری کمک می‌کند؟
  • چرا ارتش‌ها نمی‌تواند به هوش مصنوعی اعتماد کند؟