مشروع قانون أمريكي يُخلي مسؤولية الذكاء الاصطناعي من اخطاءه

قد تُحمى شركات الذكاء الاصطناعي قريبًا من معظم الدعاوى القضائية بموجب مشروع قانون جمهوري جديد.
ويهدف هذا القانون إلى ضمان تحمل المهنيين، مثل الأطباء والمحامين والمستشارين الماليين والمهندسين، الذين يستخدمون برامج الذكاء الاصطناعي المسؤولية القانونية في حال احتواء عملهم على أخطاء.
قد تُحمى شركات الذكاء الاصطناعي من الأخطاء التي ترتكبها برامجها، شريطة التزامها بمتطلبات إفصاح محددة، بموجب مشروع قانون جديد طرحه سيناتور جمهوري.
يهدف مشروع القانون الأمريكي المقترح إلى ضمان تحمل المهنيين، مثل الأطباء والمحامين والمستشارين الماليين والمهندسين وغيرهم، الذين يستخدمون برامج الذكاء الاصطناعي المسؤولية القانونية في حال احتواء عملهم على أخطاء.
ومع ذلك، سيُطلب من مطوري الذكاء الاصطناعي التصريح علنًا بكيفية عمل أنظمتهم.
تفاصيل القانون المقترح
مشروع القانون قدّمته سينثيا لوميس، من ولاية وايومنغ، مشروع القانون يوم الخميس، والذي أُطلق عليه اسم "قانون الابتكار المسؤول والخبرة الآمنة". وقال مكتب السيناتور الأمريكي إنه سيكون الأول من نوعه في حال إقراره.
ولن ينطبق مشروع القانون على المركبات ذاتية القيادة أو المطورين الذين يتصرفون بتهور أو يرتكبون سوء سلوك.
ومن المتوقع ألا يُنشئ هذا التشريع حصانةً شاملةً لتقنية الذكاء الاصطناعي حول العالم، بل يُلزم مطوري الذكاء الاصطناعي بالإفصاح علنًا عن مواصفات النماذج ليتمكن المختصون من اتخاذ قراراتٍ مدروسةٍ بشأن أدوات الذكاء الاصطناعي التي يختارون استخدامها.
هذا يعني أيضًا أن المختصين المرخص لهم مسؤولون في نهاية المطاف عن النصائح والقرارات التي يتخذونها.
وبحسب رأي مقترحو القانون فإن هذه سياسةٌ ذكيةٌ للعصر الرقمي، تحمي الابتكار، وتطالب بالشفافية، وتضع المختصين وعملائهم في المقام الأول.
ويسعى مُشرّعون آخرون إلى استباق قيود المسؤولية عندما يتعلق الأمر بالشركات التي تُطبّق الذكاء الاصطناعي.
وتعمل الولايات المتحدة على تطبيق المعايير، لكن جزءًا من "مشروع قانون واحد كبير وجميل" الذي طرحه الرئيس الأمريكي دونالد ترامب يتضمن بندًا يمنعها من القيام بذلك لمدة 10 سنوات على الأقل.
في الأسبوع الماضي، اقترح الجمهوريون في مجلس الشيوخ بالولايات المتحدة الأمريكية تغيير البند لمنع التمويل الفيدرالي لمشاريع النطاق العريض إلى الولايات التي تُنظّم الذكاء الاصطناعي.