به گزارش خبرگزاری خبرآنلاین و براساس گزارش سیتنا، یک پست وبلاگی واتساپ روز چهارشنبه [۲۵ ژوئن/۴ تیر] اعلام کرد: «گاهی فقط لازم است سریع از محتوای پیامهایتان باخبر شوید.»
در ادامه این پست آمده بود: «از این رو مشتاقیم که ویژگی خلاصه پیامها (Message Summaries) را معرفی کنیم؛ گزینهای جدید که با استفاده از هوش مصنوعی متا، پیامهای خواندهنشده در یک چت را بهصورت خصوصی و سریع خلاصه میکند تا بتوانید پیش از خواندن جزئیات پیامهای خواندهنشده، از آنچه در حال رخ دادن است، درکی [دید کلی] به دست بیاورید.»
متا گفت که ابزار جدید هوش مصنوعی از چیزی که «فناوری پردازش خصوصی» نامیده میشود استفاده میکند تا اطمینان حاصل شود که مخاطبان یک کاربر واتساپ نمیتوانند ببینند که چتها خلاصهسازی شدهاند.
تنها کاربران انگلیسیزبان در ایالات متحده به خلاصههای هوش مصنوعی دسترسی خواهند داشت و واتساپ گفت که قصد دارد این ویژگی را در ادامه سال جاری به زبانها و کشورهای دیگر نیز گسترش دهد.
ویژگی جدید «خلاصه پیامها» بخشی از برنامههای متا برای گسترش ابزارهای هوش مصنوعی در سراسر پلتفرمهایش است؛ این شرکت پیش از این یک چتبات هوش مصنوعی را در فیسبوک، اینستاگرام و واتساپ معرفی کرده بود.
مارک زاکربرگ، مدیرعامل متا، در یک مصاحبه اخیر پیشنهاد داد که رباتهای هوش مصنوعی میتوانند برای افرادی که از تنهایی در رنجاند، بهعنوان یک دوست عمل کنند.
مارک زاکربرگ در یک مصاحبه روی سِن با جان کولیستون، یکی از بنیانگذاران شرکت استرایپ، در کنفرانس سالانه این [شرکت] غول [فعال در زمینه تکنولوژی] پرداخت در ماه گذشته گفت: «فکر میکنم مردم خواهان سامانهای خواهند بود که آنها را بهخوبی بشناسد و تا حدی درکشان کند. همانطور که الگوریتمهای فید [یعنی نمایش محتوای شخصیسازیشده برای کاربر] این کار را انجام میدهند».
زاکربرگ افزود: «برای افرادی که کسی را ندارند که درمانگر باشد، فکر میکنم هر کسی یک هوش مصنوعی خواهد داشت».
پژوهشگران به دلیل ماهیت آزمایشی این فناوری، همواره درباره خطرات شکلگیری روابط با چتباتهای هوش مصنوعی هشدار دادهاند.
سورن دینسن اوستِرگارد، استاد روانپزشکی در دانشگاه آرهوس دانمارک، گفت که هوش مصنوعی باعث پدید آمدن پدیدهای جدید شده است که «روانپریشی ناشی از چتبات» نامیده میشود.
او در سرمقالهای برای «بولتن اسکیزوفرنی» (Schizophrenia Bulletin) نوشت: «بسته به پرسشهایی که مطرح میشود، چتباتهای مولد هوش مصنوعی ممکن است اطلاعاتی ارائه دهند که نادرست باشد یا فردی که دچار بیماری روانی است و نیاز به مراقبت پزشکی دارد، آنها را نادرست درک کند و در نتیجه به دنبال دریافت کمک مناسب نرود.»
۲۲۷۲۲۷
دیدگاهتان را بنویسید