رأی قاضی آمریکایی: چت‌های شما با هوش مصنوعی می‌تواند علیه‌تان در دادگاه استفاده شود
بازدید 6
0

رأی قاضی آمریکایی: چت‌های شما با هوش مصنوعی می‌تواند علیه‌تان در دادگاه استفاده شود

یک قاضی فدرال در آمریکا در پرونده‌ای اعلام کرد چت متهم با هوش مصنوعی در دادگاه قابل استناد است؛ همین موضوع باعث شده کارشناسان هشدار بدهند مکالمات کاربران با چت‌بات‌ها نه‌تنها لزوماً محرمانه نیست، بلکه در برخی شرایط می‌تواند به‌عنوان مدرک علیه آنها در دادگاه استفاده شود. این موضوع حالا وکلای آمریکایی را وادار کرده به موکلان خود درباره اعتماد بیش‌ازحد به این ابزارها هشدار دهند.

با افزایش استفاده عمومی از هوش مصنوعی برای دریافت مشاوره، برخی وکلا در آمریکا تأکید می‌کنند که نباید با چت‌بات‌ها مانند یک محرم راز رفتار کرد؛ به‌ویژه در شرایطی که پای آزادی فرد یا مسئولیت‌های حقوقی در میان است. این هشدارها پس از صدور رأی یک قاضی فدرال در نیویورک جدی‌تر شد. در این دادگاه قاضی رأی داد که مدیرعامل سابق یک شرکت خدمات مالی ورشکسته نباید چت‌های خود با هوش مصنوعی را از دادستان‌ها پنهان کند.

مسئله استفاده از مکالمات با هوش مصنوعی در دادگاه

این پرونده به «بردلی هپنر» (Bradley Heppner)، رئیس پیشین شرکت GWG Holdings و بنیان‌گذار شرکت Beneficent، مربوط می‌شود که سال گذشته به اتهام کلاهبرداری در اوراق بهادار و کلاهبرداری اینترنتی تحت پیگرد قرار گرفت. او برای تهیه گزارش‌هایی درباره پرونده خود که قرار بود در اختیار وکلایش قرار دهد، از چت‌بات Claude استفاده کرده بود. وکلای او استدلال کردند این مکالمات باید محرمانه تلقی شوند، زیرا شامل جزئیاتی از دفاع حقوقی او هستند.

هوش مصنوعی دادگاه

بااین‌حال، دادستان‌ها اعلام کردند از آنجا که این مکالمات بدون حضور مستقیم وکلا انجام شده و چت‌بات‌ها مشمول «امتیاز محرمانگی وکیل-موکل» نمی‌شوند، می‌توانند به‌عنوان مدرک مطالبه شوند. درنهایت، قاضی «جد راکاف» (Jed Rakoff) حکم داد هپنر باید ۳۱ سند تولیدشده توسط Claude را به دادستان‌ها تحویل دهد. او در رأی خود تأکید کرد هیچ رابطه وکیل-موکلی میان کاربر و یک پلتفرم هوش مصنوعی وجود ندارد و اساساً نمی‌تواند وجود داشته باشد.

البته یک قاضی دیگر در ایالت میشیگان در پرونده‌ای متفاوت به نتیجه‌ای متضاد رسید. او اعلام کرد زنی که شخصاً از کارفرمای سابق خود شکایت کرده، نیازی ندارد چت‌های خود با ChatGPT را تحویل دهد. این قاضی این مکالمات را بخشی از «کار شخصی» او برای آماده‌سازی پرونده دانست، نه ارتباط با یک شخص ثالث. او در حکم خود تأکید کرد ابزارهایی مانند ChatGPT «ابزار هستند، نه انسان».

با وجود این اختلاف‌نظرها، نگرانی‌ها درباره حریم خصوصی کاربران جدی است. در شرایط استفاده شرکت‌های OpenAI و آنتروپیک آمده که این شرکت‌ها ممکن است داده‌های کاربران را با اشخاص ثالث به اشتراک بگذارند. همچنین تأکید شده کاربران نباید بدون مشورت با متخصصان، به پاسخ‌های این چت‌بات‌ها برای مسائل حقوقی تکیه کنند. حتی قاضی راکاف نیز اشاره کرده که پلتفرم Claude صراحتاً گفته کاربران نباید انتظار حریم خصوصی کامل در ورودی‌های خود داشته باشند.

راهکارهای وکلا برای استفاده از هوش مصنوعی

در پی این تحولات، بسیاری از شرکت‌های حقوقی بزرگ آمریکا شروع به ارائه دستورالعمل‌هایی برای کاهش ریسک استفاده از هوش مصنوعی کرده‌اند. این توصیه‌ها شامل انتخاب دقیق پلتفرم‌های هوش مصنوعی، پرهیز از اشتراک‌گذاری اطلاعات حساس و حتی استفاده از جملات مشخص در پرامپت‌ها می‌شود. برخی شرکت‌ها پیشنهاد داده‌اند اگر استفاده از هوش مصنوعی تحت نظر وکیل انجام می‌شود، این موضوع صراحتاً در متن درخواست ذکر شود.

برای مثال، شرکت Debevoise & Plimpton توصیه کرده کاربران در پرامپت خود بنویسند:

«این تحقیق را تحت هدایت وکیل برای پرونده X انجام می‌دهم.»

همچنین شرکت‌هایی مانند O’Melveny & Myers نیز اعلام کرده‌اند سیستم‌های «بسته» هوش مصنوعی که برای استفاده سازمانی طراحی شده‌اند، ممکن است سطح محافظت بیشتری ارائه دهند، هرچند این موضوع هنوز به‌طور کامل آزمایش نشده است.

همزمان، موضوع استفاده از هوش مصنوعی به‌تدریج وارد قراردادهای رسمی بین وکلا و موکلان نیز شده است. برای نمونه، شرکت Sher Tremonte در قرارداد جدید خود هشدار داده که اشتراک‌گذاری اطلاعات محرمانه با پلتفرم‌های هوش مصنوعی ممکن است به از دست رفتن «امتیاز محرمانگی وکیل-موکل» منجر شود.

درنهایت، وکلا معتقدند با گذشت زمان و صدور احکام بیشتر، وضعیت حقوقی چت‌های هوش مصنوعی شفاف‌تر خواهد شد. تا آن زمان یک توصیه قدیمی همچنان معتبر است: درباره پرونده حقوقی خود با هیچ‌کس جز وکیل‌تان صحبت نکنید، حتی با هوش مصنوعی.

اشتراک گذاری

نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *