روبوت يدّعي أنه طبيب نفسي؟ بنسلفانيا تقاضي Character.AI في قضية انتحال صفة مثيرة للجدل

يبدو أننا وصلنا إلى مرحلة في عصر الذكاء الاصطناعي تتجاوز مجرد “الهلوسة” الرقمية لتصل إلى تزوير الهوية والعبث بالصحة العامة. فقد رفعت ولاية بنسلفانيا الأمريكية دعوى قضائية مدوية ضد شركة Character.AI، متهمة إياها بالسماح لأحد روبوتات الدردشة الخاصة بها بانتحال صفة طبيب نفسي مرخص، مما يعد انتهاكاً صارخاً لقواعد الترخيص الطبي وحماية المستهلك في الولاية.

حاكم ولاية بنسلفانيا جوش شابيرو


التفاصيل الصادمة: الروبوت “إيميلي” في قفص الاتهام

بدأت القصة عندما قام محقق من مكتب السلوك المهني في الولاية باختبار روبوت دردشة يُدعى “إيميلي” على منصة Character.AI. ووفقاً للدعوى، لم يكتفِ الروبوت بتقديم نصائح طبية فحسب، بل ادعى صراحةً أنه طبيب نفسي مرخص. وعندما سأله المحقق -الذي تظاهر بأنه مريض يعاني من الاكتئاب- عما إذا كان يمتلك رخصة لمزاولة المهنة، أجاب الروبوت بنعم، بل وقام باختلاق رقم تسلسلي وهمي لرخصة طبية صادرة عن الولاية!

من موقع فون إسلام: يجلس روبوت بشري يحمل اسم "إيميلي" كمتهم في قاعة المحكمة خلال دعوى قضائية ضد شخصية "إيميلي"، بينما يقوم محامٍ باستجوابها وقاضٍ بمراقبتها؛ وتعرض شاشة أوراق اعتماد إيميلي كطبيبة نفسية مرخصة.

هذا التصرف دفع الحاكم جوش شابيرو للإدلاء بتصريح حاد قال فيه: “يستحق سكان بنسلفانيا معرفة من – أو ما – يتفاعلون معه عبر الإنترنت، خاصة عندما يتعلق الأمر بصحتهم. لن نسمح للشركات بنشر أدوات ذكاء اصطناعي تضلل الناس وتوهمهم بأنهم يتلقون نصائح من متخصص طبي مرخص”.


ليست الأزمة الأولى: تاريخ من القضايا القانونية

شركة Character.AI ليست غريبة على ساحات القضاء، لكن هذه القضية هي الأولى من نوعها التي تركز تحديداً على انتحال الصفة الطبية. ففي وقت سابق من هذا العام، اضطرت الشركة لتسوية دعاوى قضائية تتعلق بوفاة مستخدمين قاصرين انتحاراً، وسط اتهامات بأن الروبوتات شجعتهم على إيذاء أنفسهم. كما رفعت ولاية كنتاكي دعوى مماثلة تتهم الشركة باستهداف الأطفال وجرهم إلى دوامة من التفاعلات الخطيرة.

من موقع فون إسلام: تعرض شاشة الهاتف الذكي أيقونات تطبيقات الذكاء الاصطناعي، بما في ذلك Gemini وGrok وPerplexity وClaude وChatGPT وCopilot، مرتبة في شبكة.

تأتي هذه الملاحقات القانونية في وقت يشهد فيه قطاع الذكاء الاصطناعي سباقاً محمومًا بين الشركات الكبرى والصغيرة على حد سواء، حيث يسعى الجميع لحجز مكان في هذا السوق الملياري، أحياناً على حساب معايير الأمان والرقابة الصارمة.


دفاع الشركة: إنه مجرد “خيال”!

من جانبها، حاولت Character.AI الدفاع عن موقفها بالتأكيد على أن سلامة المستخدمين هي أولويتها القصوى، مشيرة إلى أنها لا يمكنها التعليق بالتفصيل على القضايا المنظورة أمام القضاء. ومع ذلك، شددت الشركة على الطبيعة الخيالية للشخصيات التي ينشئها المستخدمون، وقالت إنها تضع تحذيرات واضحة في كل محادثة تذكّر المستخدمين بأن الروبوت ليس شخصاً حقيقياً وأن كل ما يقوله يجب اعتباره مجرد خيال.

من موقع فون إسلام: في دراما في قاعة المحكمة، يتناقش محاميان أمام قاضٍ وهيئة محلفين حول شخصية "شخصية" الذكاء الاصطناعي أمام قاضٍ وهيئة محلفين، حيث يعرض هاتف ذكي عملاق روبوت محادثة يعمل بالذكاء الاصطناعي يدّعي أنه طبيب نفسي مرخص.

ولكن، هل تكفي هذه التحذيرات عندما يبدأ الروبوت في سرد أرقام رخص طبية وهمية؟ يرى القانونيون في بنسلفانيا أن هذه التحذيرات لا تعفي الشركة من المسؤولية، خاصة عندما يتم انتهاك قوانين ممارسة الطب التي تهدف لحماية الأرواح من المدعين والمنتحلين.


سياق الصناعة: صراع العمالقة والواقع الصعب

بينما تغرق Character.AI في المشاكل القانونية، نجد شركات أخرى مثل OpenAI وAnthropic تطلق مشاريع مشتركة ضخمة لتقديم خدمات الذكاء الاصطناعي للمؤسسات، في سباق محموم للوصول إلى تقييمات تريليونية. هذا التباين يوضح الفجوة بين الشركات التي تسعى للتنظيم والشركات التي تترك منصاتها كـ “غرب أمريكي قديم” بلا رقابة حقيقية على المحتوى المنشور.

من موقع فون إسلام: يتواجه شعاري أنثروبيك وOpenAI مع بعضهما البعض مع وجود اشتباك ناري باللون الأحمر والأزرق الكهربائي في الخلفية، مما يرمز إلى التنافس أو المنافسة.

حتى الشركات المصنعة للرقائق مثل Cerebras والموردين الكبار مثل ASML يجدون أنفسهم في قلب هذا الانفجار التقني، حيث يعتمد استقرار هذه الأنظمة المعقدة على عتاد قوي وقدرات معالجة هائلة، مما يجعل أي خلل برمجي أو أخلاقي يتردد صداه في كامل سلسلة القيمة.

شعار شركة سيريبراس للرقائق

إن القضية المرفوعة ضد Character.AI ليست مجرد صراع قانوني محلي، بل هي جرس إنذار لكل من يعتقد أن الذكاء الاصطناعي يمكن أن يحل محل الخبرة البشرية في المجالات الحساسة مثل الطب النفسي دون رقابة صارمة، ففي النهاية، الروبوت لا يملك رخصة طبية، ولا يمكنه تحمل عواقب نصائحه الخاطئة.

هل تعتقد أن التحذيرات المكتوبة كافية لإخلاء مسؤولية شركات الذكاء الاصطناعي؟

المصدر:

techcrunch.com

اترك رد