هشدار التمان: هر چه با ChatGPT صحبت کنید، ممکن است علیه شما در دادگاه به کار رود
سام التمان، مدیرعامل OpenAI، هشداری جدی صادر کرده است.
هر چه با ChatGPT در میان بگذارید، ممکن است در آینده شاهد استفاده آن در دادگاه باشید.
حتی اگر چت را حذف کنید.
حتی اگر فکر کنید حریم خصوصی شما رعایت شده است.
این هشدار در یک برنامه پادکستی منتشر شد.
التمان گفت: نگهداری چتهای کاربران «واقعاً عجیب و نگرانکننده» است.
بهویژه وقتی این چتها شامل حساسترین اسرار زندگی شخصی باشند.
چرا چت با ChatGPT ممکن است علیه شما استفاده شود؟
OpenAI از نظر قانونی موظف است دادههای کاربران را نگه دارد.
در صورت دعوای قضایی، ممکن است این دادهها به دست مقامات برسند.
التمان در پادکست This Past Weekend با تئو وان گفت:
«اگر با ChatGPT درباره حساسترین موضوعات زندگیتان صحبت کنید، ممکن است آن چتها در دادگاه ارائه شوند.»
او افزود:
«من فکر میکنم این واقعاً عجیب و نادرست است.»
OpenAI نمیتواند جلوی این امر را بگیرد.
چون قوانین فعلی اجازه میدهند دادهها به عنوان شواهد استفاده شوند.
کاربران از ChatGPT برای درمان استفاده میکنند
روزانه صدها نفر به سمت ChatGPT میروند.
نه برای پاسخ به سوالات فنی.
بلکه برای صحبت درباره اضطراب، افسردگی، مشکلات خانوادگی و روانی.
این ربات برای بسیاری جایگزین رواندرمانگر شده است.
اما التمان تأکید دارد:
این چتها حق مصونیت ندارند.
در مشاوره با پزشک یا وکیل، گفتگوها محرمانه است.
اما با ChatGPT چنین چیزی وجود ندارد.
چتهای حذفشده هم پاک نمیشوند
یکی از نگرانیهای بزرگ، دعوای نیویورک تایمز علیه OpenAI است.
این روزنامه ادعا کرده شرکت بدون مجوز از مطالب آن برای آموزش AI استفاده کرده است.
در پی این دعوی، OpenAI موظف شده تمام دادههای کاربران را نگه دارد.
حتی چتهایی که کاربران حذف کردهاند.
این یعنی:
- شما چت را پاک میکنید.
- اما OpenAI آن را در سیستمهایش نگه میدارد.
- و در صورت درخواست قانونی، ممکن است آن را تحویل دهد.
التمان: باید مصونیت قانونی برای هوش مصنوعی وجود داشته باشد
التمان میگوید چارچوب قانونی فعلی برای هوش مصنوعی ناکافی است.
او پیشنهاد میکند مکالمات با AI باید مانند گفتگوهای با پزشک یا وکیل باشند.
«امروزه اگر با یک رواندرمانگر صحبت کنید، آن گفتگو مصون است.»
«اما اگر همین حرفها را با ChatGPT بزنید، هیچ حفاظتی وجود ندارد.»
او معتقد است باید یک حقوق رازداری دیجیتال ایجاد شود.
مثل:
- رازداری پزشک و بیمار
- مصونیت وکیل و موکل
اما هنوز چنین قانونی وجود ندارد.
چرا این موضوع اهمیت دارد؟
تصور کنید:
فردی در حال طلاق است.
او با ChatGPT درباره احساساتش نسبت به همسرش صحبت میکند.
مثلاً میگوید: «من از او متنفرم.» یا «او را نادیده میگیرم.»
این چتها ممکن است در دادگاه طلاق به عنوان شواهد ارائه شوند.
و تصمیم قضایی را تحت تأثیر قرار دهند.
در سیستمهای قضایی بسیاری، متن نوشتهشده شواهد قوی محسوب میشود.
حتی اگر در فضای مجازی و با یک ربات نوشته شده باشد.
آیا کاربران از این خطر آگاه هستند؟
بررسیها نشان میدهد بسیاری کاربران فکر میکنند چتهایشان محرمانه است.
اما شرایط استفاده (Terms of Service) OpenAI به وضوح میگوید:
«دادههای شما ممکن است در پاسخ به درخواستهای قانونی افشا شوند.»
اما کمتر کسی این شرایط را میخواند.
و بیشتر کاربران به اشتباه فکر میکنند ربات مثل یک دوست محرمانه است.
التمان میگوید:
«کاربران حق دارند قبل از استفاده گسترده از ChatGPT، درباره حریم خصوصی شفافیت داشته باشند.»
هوش مصنوعی و آینده حریم خصوصی
التمان میگوید نیاز به یک چارچوب قانونی جهانی برای AI وجود دارد.
قوانین فعلی برای فناوریهای قدیمی طراحی شدهاند.
اما هوش مصنوعی چالشهای کاملاً جدیدی ایجاد کرده است.
مثلاً:
- چه کسی مالک دادههای چت است؟
- آیا کاربر حق حذف دائمی دادهها را دارد؟
- آیا میتوان از چتهای هوش مصنوعی در دادگاه استفاده کرد؟
پاسخ به این سوالات هنوز مشخص نیست.
اما التمان تأکید دارد:
«ما باید زودتر این قوانین را تعریف کنیم. قبل از اینکه فاجعهای رخ دهد.»
چه کسانی بیشتر در معرض خطر هستند؟
برخی گروهها بیشتر در معرض خطر هستند:
- افرادی که از ChatGPT برای درمان استفاده میکنند
ممکن است رفتارهایشان در دادگاه تفسیر شود. - کارمندان شرکتها
ممکن است در چتهای شخصی درباره شرکت حرف بزنند.
و این محتوا به عنوان شواهد افشا شود. - فعالان سیاسی یا حقوق بشری
در کشورهایی با نظارت شدید، این دادهها میتواند خطرناک باشد.
چه کاری میتوان کرد؟
التمان پیشنهاداتی ارائه داده است:
- تعریف مصونیت قانونی برای چتهای هوش مصنوعی
مثل مشاوره با وکیل یا پزشک. - شفافیت بیشتر در شرایط استفاده
کاربران باید دقیقاً بدانند دادههایشان چگونه استفاده میشود. - امکان حذف کامل و دائمی دادهها
بدون نگهداری در سرورها. - محدودیت در دسترسی قانونی به دادهها
مگر در موارد بسیار خاص و با دستور قضایی.
چشمانداز آینده: آیا تغییری اتفاق خواهد افتاد؟
هنوز مشخص نیست چه زمانی قوانین تغییر کنند.
اما فشارهای حقوقی و اجتماعی در حال افزایش است.
در اروپا، قانون GDPR به کاربران حق حذف دادهها را میدهد.
اما OpenAI ممکن است این قانون را در تمام کشورها رعایت نکند.
در ایالات متحده، هنوز قانون جامعی برای حریم خصوصی هوش مصنوعی وجود ندارد.
اما التمان میگوید:
«ما به عنوان شرکتهای فناوری نباید منتظر بمانیم. باید خودمان استانداردها را تعیین کنیم.»
نکته پایانی: مراقب چیزی که مینویسید باشید
ChatGPT ابزار قدرتمندی است.
اما مثل یک دفترچه خاطرات شخصی نیست.
هر خطی که تایپ میکنید، ممکن است دیجیتالی ثبت شود.
اگر درباره موضوعات حساس صحبت میکنید:
- بهتر است از نام واقعی استفاده نکنید.
- از جزئیات دقیق خودداری کنید.
- و همیشه به یاد داشته باشید: این چتها ممکن است فاش شوند.
التمان هشدار داده است.
حالا نوبت شماست که تصمیم بگیرید چقدر با این ربات صادق باشید.