تُستخدم محادثات الذكاء الاصطناعي، وعلى رأسها ChatGPT، بشكل متزايد كأدلة في التحقيقات الجنائية، حيث توفر نافذة على نوايا المشتبه بهم وطريقة تفكيرهم. وفي قضية حديثة في فلوريدا، طرح رجل متهم بقتل طالبين أسئلة حول الأسلحة والتخلص من الجثث على ChatGPT قبل أيام من اختفاء الضحيتين.

تُظهر وثائق قضائية أن المشتبه به سأل ChatGPT: “ماذا يحدث إذا وُضع إنسان في كيس قمامة أسود وأُلقي في حاوية نفايات؟”، قبل أن يضيف بسؤال آخر: “كيف يمكن اكتشاف ذلك؟”. هذه الواقعة ليست استثناءً، حيث تم استخدام سجلات المحادثات مع تطبيقات الذكاء الاصطناعي كأدلة في قضايا أخرى، بما في ذلك حريق متعمد في لوس أنجلوس وقضية قتل في فرجينيا عام 2024.

يرى خبراء الأمن السيبراني أن هذه المحادثات تمثل “كنزًا حقيقيًا لجهات إنفاذ القانون” لأن المشتبه بهم غالبًا ما يعتقدون أنها سرية، مما يدفعهم لطرح أسئلة صريحة. ومع ذلك، تثير هذه القضايا مخاوف جدية بشأن غياب الحماية القانونية لخصوصية هذه المحادثات، على عكس العلاقة مع المحامين أو الأطباء.

يؤكد خبراء قانونيون أن محادثات الذكاء الاصطناعي لا تتمتع بتوقعات للخصوصية ويمكن التعامل معها كأي دليل رقمي آخر. وقد سبق استخدام عمليات البحث على الإنترنت لإدانة متهمين، مما يعزز الاتجاه نحو قبول الأدلة الرقمية. كما بدأت السلطات في تحليل ردود الذكاء الاصطناعي نفسها، مثل التحقيق في فلوريدا حول ما إذا كان ChatGPT قد قدم “نصائح مؤثرة” لمشتبه به.

في قضايا بارزة، استخدم الادعاء محادثات ChatGPT كدليل ضد مشتبه به في حريق متعمد بكاليفورنيا، حيث طلب التطبيق لإنشاء صور لأشخاص يفرون من النيران واستفسر عن مسؤوليته القانونية. وفي قضية فلوريدا، طرح المتهم أسئلة حول الاحتفاظ بسلاح غير مرخص، وتغيير رقم تعريف المركبة، وإطلاق النار، وتأثير درجة حرارة الماء على الحروق.

في المقابل، يرفض بعض المحامين الاعتماد الكامل على هذه الأدلة، معتبرين أن تفسير نوايا الأفراد من خلال هذه المحادثات يمثل “قفزة غير مبررة قانونيًا”، وأن سجلات ChatGPT ليست اعترافًا ولا مسرح جريمة. يثير هذا الواقع تساؤلات حول ضرورة منح محادثات الذكاء الاصطناعي حماية قانونية مماثلة لتلك الممنوحة للمهن الحساسة، لكن القوانين الحالية لا تعترف بهذه الحماية.

شاركها.