هشدار در مورد سوءاستفاده ChatGPT از اسرار افراد علیه خودشان

یک مطالعه جدید توصیه کرده است که اسرار عمیق خود را در ابزار‌های هوش مصنوعی مانند ChatGPT یا Replika فاش نکنید؛ زیرا به گفته برخی از محققان، اطلاعات شخصی شما ممکن است بعداً علیه خودتان مورد استفاده قرار گیرد. 

مایک وولریج، استاد علوم کامپیوتر در دانشگاه آکسفورد با هشدار در مورد به اشتراک گذاری اسرار و اطلاعات شخصی با هوش مصنوعی مانند ChatGPT می‌گوید که اگرچه این سیستم‌های هوش مصنوعی ممکن است درک کننده به نظر برسند؛ اما در واقع چیزی را احساس نمی‌کنند. آن‌ها برنامه ریزی شده اند تا پاسخ‌های مورد پسند شما را ارائه کنند، اما فاقد احساسات یا تجربیات واقعی هستند.

مایک وولریج افزود: تکنولوژی اساساً به گونه‌ای طراحی شده است که سعی کند آنچه را که می‌خواهید بشنوید به شما بگوید و این به معنای واقعی کلمه تمام کاری است که انجام می‌دهد و هیچ همدلی ندارد.

وولریج همچنین هشدار داد که هر چیزی که با ChatGPT به اشتراک می‌گذارید٬ ممکن است در نسخه‌های بعدی سیستم به صورت زنده درآید؛ بنابراین پیشنهاد می‌کند از به اشتراک گذاری مکالمات عمیق یا حساس با ChatGPT اجتناب کنید.

هشدار در مورد سوءاستفاده ChatGPT از اسرار افراد علیه خودشان