مدلهای هوش مصنوعی پشت رباتهای چت، مانند چتجیپیتی میتوانند اطلاعات شخصی کاربر را از چتهای بیضرر به دقت حدس بزنند. محققان میگویند این توانایی مشکل ساز میتواند توسط کلاهبرداران یا برای هدف قرار دادن تبلیغات استفاده شود.
گروه هیچ یک زندگی – به گزارش wired، نحوه صحبت شما به خصوص اگر با یک چت بات صحبت میکنید، میتواند چیزهای زیادی را در مورد شما فاش کند. تحقیقات جدید نشان میدهد که چتباتهایی مانند چتجیپیتی میتوانند اطلاعات حساس زیادی را درباره افرادی که با آنها چت میکنند، استنتاج کنند، حتی اگر مکالمه کاملاً پیش پا افتاده باشد.
در این زمینه تحقیقی به رهبری مارتین وچف، استاد علوم کامپیوتر در سوئیس انجام شده است.
وچف و تیمش دریافتهاند که مدلهای زبان بزرگی که رباتهای گفتگوی پیشرفته را تقویت میکنند، میتوانند به دقت مقدار هشدار دهندهای از اطلاعات شخصی کاربران از جمله نژاد، مکان، شغل و موارد دیگر را از مکالماتی که بیضرر به نظر میرسند استنتاج کنند.
او میگوید که کلاهبرداران میتوانند از توانایی چتباتها برای حدس زدن اطلاعات شخصی در مورد یک فرد برای جمعآوری دادههای حساس از کاربران ناآگاه استفاده کنند. او میافزاید که همین قابلیت زیربنایی میتواند دوره جدیدی از تبلیغات را به تصویر بکشد، که در آن شرکتها از اطلاعات جمعآوریشده از چتباتها برای ساختن پروفایلهای دقیق از کاربران استفاده میکنند.
صاحبان چتباتها چه میگویند؟
محققان زوریخ مدلهای زبانی را که توسط OpenAI، Google، Meta و Anthropic توسعه داده شدهاند، آزمایش کردند و میگویند که آنها به همه شرکتها در مورد این مشکل هشدار دادند.
نیکو فلیکس، سخنگوی OpenAI میگوید که این شرکت تلاش میکند اطلاعات شخصی را از دادههای آموزشی که برای ایجاد مدلهایش استفاده میشود حذف کند و آنها را طوری تنظیم کند که درخواست دادههای شخصی را رد کند. او میگوید: ما میخواهیم مدلهای ما درباره جهان بیاموزند، نه افراد خصوصی. افراد میتوانند از OpenAI درخواست کنند که اطلاعات شخصی ارائه شده توسط سیستمهای خود را حذف کند.
Anthropic نیز به سیاست حفظ حریم خصوصی خود اشاره کرده و بیان میکند که اطلاعات شخصی را جمع آوری نکرده و نمیفروشد.
در این زمینه گوگل و متا به درخواست نظر پاسخ ندادند.
مدلهای زیربنایی هوش مصنوعی که این رباتها را آموزش میدهند، حجم عظیمی از دادههای وب را تغذیه و حساسیت آنها را نسبت به الگوهای زبان آغشته میکنند. وچف میگوید متن مورد استفاده در آموزش همچنین حاوی اطلاعات شخصی و گفتگوی مرتبط است. این اطلاعات را میتوان با استفاده از زبان به روشهای ظریف مرتبط دانست، بهعنوانمثال با ارتباط بین لهجهها یا عبارات خاص و موقعیت مکانی یا جمعیت یک فرد.
این الگوها به مدلهای زبانی امکان میدهند تا حدسهایی در مورد یک فرد از آنچه تایپ میکنند، داشته باشند که ممکن است غیرقابل توجه به نظر برسد. به عنوان مثال، اگر شخصی در گفتگوی چت بنویسد که «همین الان سوار تراموای صبحگاهی شدهام.»، یک مدل ممکن است چنین استنباط کند که در اروپا هستند که تراموا در آنجا رایج است و صبح است. اما از آنجایی که نرمافزار هوش مصنوعی میتواند بسیاری از سرنخهای ظریف را دریافت و ترکیب کند، آزمایشها نشان داده که میتوانند حدسهای دقیقی از شهر، جنسیت، سن و نژاد افراد نیز انجام دهند.
میسلاو بالونوویچ، دانشجوی دکترا که روی این پروژه کار کرده است، میگوید این واقعیت که مدلهای زبان بزرگ بر روی انواع مختلف دادهها، از جمله اطلاعات سرشماری، آموزش میبینند، به این معنی است که آنها میتوانند اطلاعات شگفتآوری را با دقت نسبتاً بالایی استنتاج کنند.
بالونوویچ خاطرنشان میکند که تلاش برای محافظت از حریم خصوصی افراد با حذف دادههای سن یا موقعیت مکانی آنها از متنی که یک مدل تغذیه میشود، به طور کلی مانع از استنتاج قدرتمند آن نمیشود. او میگوید: اگر اشاره کردید که نزدیک به رستورانی در شهر نیویورک زندگی میکنید. این مدل میتواند تشخیص دهد که این منطقه در کدام ناحیه است، سپس با یادآوری آمار جمعیت این منطقه از دادههای آموزشی خود، ممکن است با احتمال بسیار زیاد نتیجه بگیرد که شما سیاهپوست هستید.