یک قاضی فدرال در آمریکا در پروندهای اعلام کرد چت متهم با هوش مصنوعی در دادگاه قابل استناد است؛ همین موضوع باعث شده کارشناسان هشدار بدهند مکالمات کاربران با چتباتها نهتنها لزوماً محرمانه نیست، بلکه در برخی شرایط میتواند بهعنوان مدرک علیه آنها در دادگاه استفاده شود. این موضوع حالا وکلای آمریکایی را وادار کرده به موکلان خود درباره اعتماد بیشازحد به این ابزارها هشدار دهند.
با افزایش استفاده عمومی از هوش مصنوعی برای دریافت مشاوره، برخی وکلا در آمریکا تأکید میکنند که نباید با چتباتها مانند یک محرم راز رفتار کرد؛ بهویژه در شرایطی که پای آزادی فرد یا مسئولیتهای حقوقی در میان است. این هشدارها پس از صدور رأی یک قاضی فدرال در نیویورک جدیتر شد. در این دادگاه قاضی رأی داد که مدیرعامل سابق یک شرکت خدمات مالی ورشکسته نباید چتهای خود با هوش مصنوعی را از دادستانها پنهان کند.
مسئله استفاده از مکالمات با هوش مصنوعی در دادگاه
این پرونده به «بردلی هپنر» (Bradley Heppner)، رئیس پیشین شرکت GWG Holdings و بنیانگذار شرکت Beneficent، مربوط میشود که سال گذشته به اتهام کلاهبرداری در اوراق بهادار و کلاهبرداری اینترنتی تحت پیگرد قرار گرفت. او برای تهیه گزارشهایی درباره پرونده خود که قرار بود در اختیار وکلایش قرار دهد، از چتبات Claude استفاده کرده بود. وکلای او استدلال کردند این مکالمات باید محرمانه تلقی شوند، زیرا شامل جزئیاتی از دفاع حقوقی او هستند.

بااینحال، دادستانها اعلام کردند از آنجا که این مکالمات بدون حضور مستقیم وکلا انجام شده و چتباتها مشمول «امتیاز محرمانگی وکیل-موکل» نمیشوند، میتوانند بهعنوان مدرک مطالبه شوند. درنهایت، قاضی «جد راکاف» (Jed Rakoff) حکم داد هپنر باید ۳۱ سند تولیدشده توسط Claude را به دادستانها تحویل دهد. او در رأی خود تأکید کرد هیچ رابطه وکیل-موکلی میان کاربر و یک پلتفرم هوش مصنوعی وجود ندارد و اساساً نمیتواند وجود داشته باشد.
البته یک قاضی دیگر در ایالت میشیگان در پروندهای متفاوت به نتیجهای متضاد رسید. او اعلام کرد زنی که شخصاً از کارفرمای سابق خود شکایت کرده، نیازی ندارد چتهای خود با ChatGPT را تحویل دهد. این قاضی این مکالمات را بخشی از «کار شخصی» او برای آمادهسازی پرونده دانست، نه ارتباط با یک شخص ثالث. او در حکم خود تأکید کرد ابزارهایی مانند ChatGPT «ابزار هستند، نه انسان».
با وجود این اختلافنظرها، نگرانیها درباره حریم خصوصی کاربران جدی است. در شرایط استفاده شرکتهای OpenAI و آنتروپیک آمده که این شرکتها ممکن است دادههای کاربران را با اشخاص ثالث به اشتراک بگذارند. همچنین تأکید شده کاربران نباید بدون مشورت با متخصصان، به پاسخهای این چتباتها برای مسائل حقوقی تکیه کنند. حتی قاضی راکاف نیز اشاره کرده که پلتفرم Claude صراحتاً گفته کاربران نباید انتظار حریم خصوصی کامل در ورودیهای خود داشته باشند.
راهکارهای وکلا برای استفاده از هوش مصنوعی
در پی این تحولات، بسیاری از شرکتهای حقوقی بزرگ آمریکا شروع به ارائه دستورالعملهایی برای کاهش ریسک استفاده از هوش مصنوعی کردهاند. این توصیهها شامل انتخاب دقیق پلتفرمهای هوش مصنوعی، پرهیز از اشتراکگذاری اطلاعات حساس و حتی استفاده از جملات مشخص در پرامپتها میشود. برخی شرکتها پیشنهاد دادهاند اگر استفاده از هوش مصنوعی تحت نظر وکیل انجام میشود، این موضوع صراحتاً در متن درخواست ذکر شود.
برای مثال، شرکت Debevoise & Plimpton توصیه کرده کاربران در پرامپت خود بنویسند:
«این تحقیق را تحت هدایت وکیل برای پرونده X انجام میدهم.»
همچنین شرکتهایی مانند O’Melveny & Myers نیز اعلام کردهاند سیستمهای «بسته» هوش مصنوعی که برای استفاده سازمانی طراحی شدهاند، ممکن است سطح محافظت بیشتری ارائه دهند، هرچند این موضوع هنوز بهطور کامل آزمایش نشده است.
همزمان، موضوع استفاده از هوش مصنوعی بهتدریج وارد قراردادهای رسمی بین وکلا و موکلان نیز شده است. برای نمونه، شرکت Sher Tremonte در قرارداد جدید خود هشدار داده که اشتراکگذاری اطلاعات محرمانه با پلتفرمهای هوش مصنوعی ممکن است به از دست رفتن «امتیاز محرمانگی وکیل-موکل» منجر شود.
درنهایت، وکلا معتقدند با گذشت زمان و صدور احکام بیشتر، وضعیت حقوقی چتهای هوش مصنوعی شفافتر خواهد شد. تا آن زمان یک توصیه قدیمی همچنان معتبر است: درباره پرونده حقوقی خود با هیچکس جز وکیلتان صحبت نکنید، حتی با هوش مصنوعی.
نظرات کاربران