این روزها استفاده از چتباتهای هوش مصنوعی نظیر «چتجیپیتی» (ChatGPT)، «جمنای» (Gemini) و «کوپایلت» (Copilot) به عادتی روزمره برای میلیونها کاربر تبدیل شده است. طبق نظرسنجی اخیر مرکز «آینده دیجیتال» دانشگاه ایلان، نیمی از آمریکاییها اکنون از این فناوریها استفاده میکنند. اما پشت این سهولت در استفاده، خطراتی پنهان نهفته است که اغلب نادیده گرفته میشوند.
تحقیقات اخیر موسسه هوش مصنوعی دانشگاه استنفورد نشان میدهد که اکثر توسعهدهندگان بزرگ هوش مصنوعی، بهطور پیشفرض از مکالمات کاربران برای آموزش و بهبود مدلهای خود استفاده میکنند و برخی از آنها این دادهها را برای مدتی نامعلوم نگه میدارند.
«جرج کاماید» (George Kamide)، کارشناس امنیت سایبری و میزبان پادکست تکنولوژی، در گفتگو با هافپست میگوید: «مردم دستکم میگیرند که چه حجمی از اطلاعاتشان توسط هوش مصنوعی ذخیره و تحلیل میشود. اگر تعاملات شما حاوی اطلاعات حساس باشد، این دادهها وارد مجموعهای میشوند که دیگر در کنترل شما نیست.»
در ادامه، ۵ دسته از اطلاعاتی را مرور میکنیم که کارشناسان اکیداً توصیه میکنند هرگز آنها را با هوش مصنوعی در میان نگذارید:
۱. اطلاعات هویتی و شخصی (PII)
اطلاعات قابل شناسایی شخصی یا PII شامل نام کامل، آدرس منزل، شماره تلفن، کدملی و شماره گواهینامه است. «جرج الکورا» (George Al-Koura)، کارشناس امنیت اطلاعات، هشدار میدهد که اشتراکگذاری این دادهها میتواند شما را در معرض سرقت هویت و حملات فیشینگ قرار دهد. همچنین اگر برای ویرایش رزومه از هوش مصنوعی کمک میگیرید، حتماً قبل از آپلود فایل، نام و مشخصات تماس خود را از آن حذف کنید.
۲. جزئیات احساسی و خصوصی زندگی
بسیاری از افراد با چتباتها احساس راحتی میکنند و آنها را مثل یک تراپیست میبینند. اما «اشلی کازووان» (Ashley Casovan)، مدیر مرکز حکمرانی هوش مصنوعی IAPP، میگوید این یک «احساس امنیت کاذب» است. صحبتهای خصوصی شما درباره روابط، وضعیت روانی یا رفتارهایتان از نظر قانونی محافظت نمیشود و در صورت نشت اطلاعات یا دستور قضایی، میتواند علیه شما استفاده شود.
۳. اطلاعات و پروندههای پزشکی
طبق آمار، از هر ۶ نفر یک نفر برای مشاوره سلامت به هوش مصنوعی مراجعه میکند. اما باید بدانید که برخلاف پزشکان، چتباتها ملزم به رعایت قوانین رازداری پزشکی (مانند قانون HIPAA در آمریکا) نیستند. هرگز سوابق پزشکی یا جزئیات بیماری خود را با نام و مشخصات واقعی در این ابزارها وارد نکنید.
۴. اطلاعات محرمانه کاری و تجاری
اگر میخواهید از هوش مصنوعی برای پیشبرد کارهای شرکت استفاده کنید، بسیار محتاط باشید. وارد کردن دادههای داخلی شرکت، گزارشهای مالی، کدنویسیهای اختصاصی و اطلاعات مشتریان میتواند نقض قرارداد محرمانگی باشد. حتی با وجود امنیت بالا، ورودیهای شما ممکن است برای بهبود مدل لاگ شوند و در آینده توسط رقبا بازتولید شوند.
۵. اطلاعات مالی و بانکی
هرگز فیش حقوقی، شماره حساب، اطلاعات سرمایهگذاری یا جزئیات کارت اعتباری را به چتبات ندهید. این اسناد در صورت افشا شدن میتوانند ابزاری برای کلاهبرداری مالی، اخاذی یا حملات مهندسی اجتماعی علیه شما و خانوادهتان باشند.
اگر قبلا این کار را کردهاید، چه باید کرد؟
شاید نتوان آب ریخته را به جوی بازگرداند، اما میتوان جلوی ضرر را گرفت. کارشناسان توصیه میکنند که تاریخچه چتهای خود را پاک کنید تا در صورت هک شدن اکانت، اطلاعات قبلی لو نرود.
همچنین، نگاه خود را تغییر دهید؛ فضای چت با هوش مصنوعی را مثل یک «گروه خانوادگی» یا «محیط کاری» نیمهعمومی در نظر بگیرید، نه یک دفترچه خاطرات خصوصی. از تنظیمات حریم خصوصی چتباتها استفاده کنید تا ذخیره تاریخچه را غیرفعال کرده و اجازه آموزش مدل با دادههایتان را لغو کنید.