AI

هر چه با ChatGPT صحبت کنید، ممکن است علیه شما در دادگاه به کار رود

چت جی پی تی

هشدار التمان: هر چه با ChatGPT صحبت کنید، ممکن است علیه شما در دادگاه به کار رود

سام التمان، مدیرعامل OpenAI، هشداری جدی صادر کرده است.
هر چه با ChatGPT در میان بگذارید، ممکن است در آینده شاهد استفاده آن در دادگاه باشید.
حتی اگر چت را حذف کنید.
حتی اگر فکر کنید حریم خصوصی شما رعایت شده است.

این هشدار در یک برنامه پادکستی منتشر شد.
التمان گفت: نگهداری چت‌های کاربران «واقعاً عجیب و نگران‌کننده» است.
به‌ویژه وقتی این چت‌ها شامل حساس‌ترین اسرار زندگی شخصی باشند.


چرا چت با ChatGPT ممکن است علیه شما استفاده شود؟

OpenAI از نظر قانونی موظف است داده‌های کاربران را نگه دارد.
در صورت دعوای قضایی، ممکن است این داده‌ها به دست مقامات برسند.
التمان در پادکست This Past Weekend با تئو وان گفت:

«اگر با ChatGPT درباره حساس‌ترین موضوعات زندگی‌تان صحبت کنید، ممکن است آن چت‌ها در دادگاه ارائه شوند.»

او افزود:

«من فکر می‌کنم این واقعاً عجیب و نادرست است.»

OpenAI نمی‌تواند جلوی این امر را بگیرد.
چون قوانین فعلی اجازه می‌دهند داده‌ها به عنوان شواهد استفاده شوند.


کاربران از ChatGPT برای درمان استفاده می‌کنند

روزانه صدها نفر به سمت ChatGPT می‌روند.
نه برای پاسخ به سوالات فنی.
بلکه برای صحبت درباره اضطراب، افسردگی، مشکلات خانوادگی و روانی.

این ربات برای بسیاری جایگزین روان‌درمانگر شده است.
اما التمان تأکید دارد:
این چت‌ها حق مصونیت ندارند.

در مشاوره با پزشک یا وکیل، گفتگوها محرمانه است.
اما با ChatGPT چنین چیزی وجود ندارد.


چت‌های حذف‌شده هم پاک نمی‌شوند

یکی از نگرانی‌های بزرگ، دعوای نیویورک تایمز علیه OpenAI است.
این روزنامه ادعا کرده شرکت بدون مجوز از مطالب آن برای آموزش AI استفاده کرده است.

در پی این دعوی، OpenAI موظف شده تمام داده‌های کاربران را نگه دارد.
حتی چت‌هایی که کاربران حذف کرده‌اند.

این یعنی:

  • شما چت را پاک می‌کنید.
  • اما OpenAI آن را در سیستم‌هایش نگه می‌دارد.
  • و در صورت درخواست قانونی، ممکن است آن را تحویل دهد.

التمان: باید مصونیت قانونی برای هوش مصنوعی وجود داشته باشد

التمان می‌گوید چارچوب قانونی فعلی برای هوش مصنوعی ناکافی است.
او پیشنهاد می‌کند مکالمات با AI باید مانند گفتگوهای با پزشک یا وکیل باشند.

«امروزه اگر با یک روان‌درمانگر صحبت کنید، آن گفتگو مصون است.»
«اما اگر همین حرف‌ها را با ChatGPT بزنید، هیچ حفاظتی وجود ندارد.»

او معتقد است باید یک حقوق رازداری دیجیتال ایجاد شود.
مثل:

  • رازداری پزشک و بیمار
  • مصونیت وکیل و موکل

اما هنوز چنین قانونی وجود ندارد.


چرا این موضوع اهمیت دارد؟

تصور کنید:
فردی در حال طلاق است.
او با ChatGPT درباره احساساتش نسبت به همسرش صحبت می‌کند.
مثلاً می‌گوید: «من از او متنفرم.» یا «او را نادیده می‌گیرم.»

این چت‌ها ممکن است در دادگاه طلاق به عنوان شواهد ارائه شوند.
و تصمیم قضایی را تحت تأثیر قرار دهند.

در سیستم‌های قضایی بسیاری، متن نوشته‌شده شواهد قوی محسوب می‌شود.
حتی اگر در فضای مجازی و با یک ربات نوشته شده باشد.


آیا کاربران از این خطر آگاه هستند؟

بررسی‌ها نشان می‌دهد بسیاری کاربران فکر می‌کنند چت‌هایشان محرمانه است.
اما شرایط استفاده (Terms of Service) OpenAI به وضوح می‌گوید:

«داده‌های شما ممکن است در پاسخ به درخواست‌های قانونی افشا شوند.»

اما کمتر کسی این شرایط را می‌خواند.
و بیشتر کاربران به اشتباه فکر می‌کنند ربات مثل یک دوست محرمانه است.

التمان می‌گوید:

«کاربران حق دارند قبل از استفاده گسترده از ChatGPT، درباره حریم خصوصی شفافیت داشته باشند.»


هوش مصنوعی و آینده حریم خصوصی

التمان می‌گوید نیاز به یک چارچوب قانونی جهانی برای AI وجود دارد.
قوانین فعلی برای فناوری‌های قدیمی طراحی شده‌اند.
اما هوش مصنوعی چالش‌های کاملاً جدیدی ایجاد کرده است.

مثلاً:

  • چه کسی مالک داده‌های چت است؟
  • آیا کاربر حق حذف دائمی داده‌ها را دارد؟
  • آیا می‌توان از چت‌های هوش مصنوعی در دادگاه استفاده کرد؟

پاسخ به این سوالات هنوز مشخص نیست.
اما التمان تأکید دارد:

«ما باید زودتر این قوانین را تعریف کنیم. قبل از اینکه فاجعه‌ای رخ دهد.»


چه کسانی بیشتر در معرض خطر هستند؟

برخی گروه‌ها بیشتر در معرض خطر هستند:

  • افرادی که از ChatGPT برای درمان استفاده می‌کنند
    ممکن است رفتارهایشان در دادگاه تفسیر شود.
  • کارمندان شرکت‌ها
    ممکن است در چت‌های شخصی درباره شرکت حرف بزنند.
    و این محتوا به عنوان شواهد افشا شود.
  • فعالان سیاسی یا حقوق بشری
    در کشورهایی با نظارت شدید، این داده‌ها می‌تواند خطرناک باشد.

چه کاری می‌توان کرد؟

التمان پیشنهاداتی ارائه داده است:

  1. تعریف مصونیت قانونی برای چت‌های هوش مصنوعی
    مثل مشاوره با وکیل یا پزشک.
  2. شفافیت بیشتر در شرایط استفاده
    کاربران باید دقیقاً بدانند داده‌هایشان چگونه استفاده می‌شود.
  3. امکان حذف کامل و دائمی داده‌ها
    بدون نگهداری در سرورها.
  4. محدودیت در دسترسی قانونی به داده‌ها
    مگر در موارد بسیار خاص و با دستور قضایی.

چشم‌انداز آینده: آیا تغییری اتفاق خواهد افتاد؟

هنوز مشخص نیست چه زمانی قوانین تغییر کنند.
اما فشارهای حقوقی و اجتماعی در حال افزایش است.

در اروپا، قانون GDPR به کاربران حق حذف داده‌ها را می‌دهد.
اما OpenAI ممکن است این قانون را در تمام کشورها رعایت نکند.

در ایالات متحده، هنوز قانون جامعی برای حریم خصوصی هوش مصنوعی وجود ندارد.

اما التمان می‌گوید:

«ما به عنوان شرکت‌های فناوری نباید منتظر بمانیم. باید خودمان استانداردها را تعیین کنیم.»


نکته پایانی: مراقب چیزی که می‌نویسید باشید

ChatGPT ابزار قدرتمندی است.
اما مثل یک دفترچه خاطرات شخصی نیست.
هر خطی که تایپ می‌کنید، ممکن است دیجیتالی ثبت شود.

اگر درباره موضوعات حساس صحبت می‌کنید:

  • بهتر است از نام واقعی استفاده نکنید.
  • از جزئیات دقیق خودداری کنید.
  • و همیشه به یاد داشته باشید: این چت‌ها ممکن است فاش شوند.

التمان هشدار داده است.
حالا نوبت شماست که تصمیم بگیرید چقدر با این ربات صادق باشید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *