يبدو أننا وصلنا إلى مرحلة في عصر الذكاء الاصطناعي تتجاوز مجرد “الهلوسة” الرقمية لتصل إلى تزوير الهوية والعبث بالصحة العامة. فقد رفعت ولاية بنسلفانيا الأمريكية دعوى قضائية مدوية ضد شركة Character.AI، متهمة إياها بالسماح لأحد روبوتات الدردشة الخاصة بها بانتحال صفة طبيب نفسي مرخص، مما يعد انتهاكاً صارخاً لقواعد الترخيص الطبي وحماية المستهلك في الولاية.

التفاصيل الصادمة: الروبوت “إيميلي” في قفص الاتهام
بدأت القصة عندما قام محقق من مكتب السلوك المهني في الولاية باختبار روبوت دردشة يُدعى “إيميلي” على منصة Character.AI. ووفقاً للدعوى، لم يكتفِ الروبوت بتقديم نصائح طبية فحسب، بل ادعى صراحةً أنه طبيب نفسي مرخص. وعندما سأله المحقق -الذي تظاهر بأنه مريض يعاني من الاكتئاب- عما إذا كان يمتلك رخصة لمزاولة المهنة، أجاب الروبوت بنعم، بل وقام باختلاق رقم تسلسلي وهمي لرخصة طبية صادرة عن الولاية!

هذا التصرف دفع الحاكم جوش شابيرو للإدلاء بتصريح حاد قال فيه: “يستحق سكان بنسلفانيا معرفة من – أو ما – يتفاعلون معه عبر الإنترنت، خاصة عندما يتعلق الأمر بصحتهم. لن نسمح للشركات بنشر أدوات ذكاء اصطناعي تضلل الناس وتوهمهم بأنهم يتلقون نصائح من متخصص طبي مرخص”.
ليست الأزمة الأولى: تاريخ من القضايا القانونية
شركة Character.AI ليست غريبة على ساحات القضاء، لكن هذه القضية هي الأولى من نوعها التي تركز تحديداً على انتحال الصفة الطبية. ففي وقت سابق من هذا العام، اضطرت الشركة لتسوية دعاوى قضائية تتعلق بوفاة مستخدمين قاصرين انتحاراً، وسط اتهامات بأن الروبوتات شجعتهم على إيذاء أنفسهم. كما رفعت ولاية كنتاكي دعوى مماثلة تتهم الشركة باستهداف الأطفال وجرهم إلى دوامة من التفاعلات الخطيرة.

تأتي هذه الملاحقات القانونية في وقت يشهد فيه قطاع الذكاء الاصطناعي سباقاً محمومًا بين الشركات الكبرى والصغيرة على حد سواء، حيث يسعى الجميع لحجز مكان في هذا السوق الملياري، أحياناً على حساب معايير الأمان والرقابة الصارمة.
دفاع الشركة: إنه مجرد “خيال”!
من جانبها، حاولت Character.AI الدفاع عن موقفها بالتأكيد على أن سلامة المستخدمين هي أولويتها القصوى، مشيرة إلى أنها لا يمكنها التعليق بالتفصيل على القضايا المنظورة أمام القضاء. ومع ذلك، شددت الشركة على الطبيعة الخيالية للشخصيات التي ينشئها المستخدمون، وقالت إنها تضع تحذيرات واضحة في كل محادثة تذكّر المستخدمين بأن الروبوت ليس شخصاً حقيقياً وأن كل ما يقوله يجب اعتباره مجرد خيال.

ولكن، هل تكفي هذه التحذيرات عندما يبدأ الروبوت في سرد أرقام رخص طبية وهمية؟ يرى القانونيون في بنسلفانيا أن هذه التحذيرات لا تعفي الشركة من المسؤولية، خاصة عندما يتم انتهاك قوانين ممارسة الطب التي تهدف لحماية الأرواح من المدعين والمنتحلين.
سياق الصناعة: صراع العمالقة والواقع الصعب
بينما تغرق Character.AI في المشاكل القانونية، نجد شركات أخرى مثل OpenAI وAnthropic تطلق مشاريع مشتركة ضخمة لتقديم خدمات الذكاء الاصطناعي للمؤسسات، في سباق محموم للوصول إلى تقييمات تريليونية. هذا التباين يوضح الفجوة بين الشركات التي تسعى للتنظيم والشركات التي تترك منصاتها كـ “غرب أمريكي قديم” بلا رقابة حقيقية على المحتوى المنشور.

حتى الشركات المصنعة للرقائق مثل Cerebras والموردين الكبار مثل ASML يجدون أنفسهم في قلب هذا الانفجار التقني، حيث يعتمد استقرار هذه الأنظمة المعقدة على عتاد قوي وقدرات معالجة هائلة، مما يجعل أي خلل برمجي أو أخلاقي يتردد صداه في كامل سلسلة القيمة.

إن القضية المرفوعة ضد Character.AI ليست مجرد صراع قانوني محلي، بل هي جرس إنذار لكل من يعتقد أن الذكاء الاصطناعي يمكن أن يحل محل الخبرة البشرية في المجالات الحساسة مثل الطب النفسي دون رقابة صارمة، ففي النهاية، الروبوت لا يملك رخصة طبية، ولا يمكنه تحمل عواقب نصائحه الخاطئة.
المصدر:



اترك رد