
المؤلف: Tayyub Yaqoob ، Cointelegraph ؛
1. آفاق وأهمية حوكمة الذكاء الاصطناعي
تغطي حوكمة الذكاء الاصطناعي القواعد والمبادئ والمعايير التي تضمن تطوير واستخدامها من قبل تقنيات الذكاء الاصطناعي.
حوكمة الذكاء الاصطناعي هي مصطلح شامل يغطي التعاريف والمبادئ والإرشادات والسياسات المصممة لتوجيه الخلق الأخلاقي واستخدام تقنيات الذكاء الاصطناعي (AI).يعد إطار الحوكمة هذا أمرًا بالغ الأهمية لمعالجة مجموعة واسعة من القضايا والتحديات المتعلقة بـ AI ، مثل اتخاذ القرارات الأخلاقية ، وخصوصية البيانات ، والتحيز الخوارزمي ، والتأثير الأوسع لمنظمة العفو الدولية على المجتمع.
يتجاوز مفهوم حوكمة الذكاء الاصطناعي المستوى التقني البحت ويغطي المستويات القانونية والاجتماعية والأخلاقية.إن البنية التحتية للمنظمات والحكومات هي التي تضمن تطوير أنظمة الذكاء الاصطناعى ونشرها بطرق مفيدة دون ضرر غير مقصود.
في جوهرها ، تشكل حوكمة الذكاء الاصطناعى العمود الفقري لتطوير واستخدام AI المسؤولون ، مما يوفر مجموعة من المعايير والمعايير التي توجه مجموعة متنوعة من أصحاب المصلحة ، بما في ذلك مطوري الذكاء الاصطناعى وصناع السياسات والمستخدمين النهائيين.من خلال إنشاء إرشادات ومبادئ أخلاقية بوضوح ، تهدف حوكمة الذكاء الاصطناعى إلى مواءمة التقدم السريع لتكنولوجيا الذكاء الاصطناعي مع القيم الاجتماعية والأخلاقية للمجتمعات الإنسانية.
2. مستوى حوكمة الذكاء الاصطناعي
تتكيف إدارة الذكاء الاصطناعي مع الاحتياجات التنظيمية ، وليس لها مستويات ثابتة ، وتبني أطر مثل NIST و OECD كإرشادات.
لا تتبع حوكمة الذكاء الاصطناعي مستوى التوحيد العالمي ، كما هو موضح في مجالات مثل الأمن السيبراني.بدلاً من ذلك ، يستخدم الأساليب والأطر منظمة من كيانات مختلفة ، مما يسمح للمؤسسات بالتخصيص وفقًا لمتطلباتها المحددة.
تعد الإطار الوطني للمعايير للمعايير والتكنولوجيا (NIST) لإدارة المخاطر منظمة العفو الدولية ، ومنظمة التعاون الاقتصادي والتنمية (OECD) ، وقواعد الأخلاق الموثوق بها للمفوضية الأوروبية لأخلاقيات الذكاء الاصطناعي أحد أهم الأطر.وهي تغطي العديد من الموضوعات بما في ذلك الشفافية والمساءلة والإنصاف والخصوصية والأمن والتأكيد ، وتوفير أساس متين لممارسات الحوكمة.
تعتمد درجة تبني الحوكمة على حجم المنظمة ، وتعقيد نظام الذكاء الاصطناعى المستخدم ، والبيئة التنظيمية التي تعمل فيها.الأساليب الرئيسية الثلاثة لإدارة الذكاء الاصطناعي هي:
الحكم غير الرسمي
يعتمد النموذج الأساسي على القيم والمبادئ الأساسية للمنظمة ولديه بعض العمليات غير الرسمية مثل مجلس مراجعة الأخلاقيات ، ولكنه يفتقر إلى هيكل الحوكمة الرسمي.
الحكم المؤقت
يتضمن النهج الأكثر تنظيماً من الحكم غير الرسمي تطوير سياسات وإجراءات محددة لمواجهة تحديات محددة.ومع ذلك ، قد لا تكون شاملة أو منهجية.
الحكم الرسمي
يتطلب النهج الأكثر شمولاً تطوير إطار عمل واسع النطاق لحوكمة الذكاء الاصطناعي يعكس قيم المنظمة ، ويتوافق مع المتطلبات القانونية ، ويتضمن تقييمًا مفصلاً للمخاطر وعمليات الإشراف الأخلاقية.
3. أمثلة على حوكمة الذكاء الاصطناعي
اشرح حوكمة الذكاء الاصطناعي من خلال أمثلة مختلفة مثل إجمالي الناتج المحلي ومبادئ OECD AI ولجنة أخلاقيات الشركات ، مما يدل على طرق متعددة الأوجه لاستخدام الذكاء الاصطناعي المسؤول.
تنعكس حوكمة الذكاء الاصطناعي من خلال مختلف السياسات والأطر والممارسات ، بهدف نشر تقنيات الذكاء الاصطناعي بطريقة أخلاقية من خلال المنظمات والحكومات.تسلط هذه الأمثلة الضوء على تطبيق حوكمة الذكاء الاصطناعي في سيناريوهات مختلفة:
تعد لائحة حماية البيانات العامة (GDPR) مثالًا رئيسيًا على حوكمة الذكاء الاصطناعي في حماية البيانات الشخصية والخصوصية.على الرغم من أن الناتج المحلي الإجمالي لا يركز فقط على الذكاء الاصطناعي ، فقد كان لوائحها تأثير كبير على تطبيقات الذكاء الاصطناعي ، وخاصة تلك التي تعالج البيانات الشخصية داخل الاتحاد الأوروبي ، مع التأكيد على الحاجة إلى الشفافية وحماية البيانات.
يتم الاعتراف بمبادئ OECD AI من قبل أكثر من 40 دولة ، مع التركيز على الالتزام بمنظمة العفو الدولية الجديرة بالثقة.تدعو هذه المبادئ إلى الشفافية والإنصاف والمسؤولية في أنظمة الذكاء الاصطناعي ، وتوجه المجتمع الدولي للعمل من أجل تطوير واستخدام الذكاء الاصطناعي المسؤول.
تمثل لجنة أخلاقيات الذكاء الاصطناعي للمؤسسة نهجًا تنظيميًا لحوكمة الذكاء الاصطناعي.أنشأت العديد من الشركات لجان الأخلاقيات للإشراف على مشاريع الذكاء الاصطناعي لضمان تلبية الأخلاق والتوقعات الاجتماعية.على سبيل المثال ، تستعرض لجنة أخلاقيات الذكاء الاصطناعى من IBM منتجات AI لضمان امتثالها لقانون أخلاقيات الذكاء الاصطناعي للشركة ويدعو فرق متنوعة من مختلف التخصصات لتوفير رقابة شاملة.
4. دع أصحاب المصلحة يشاركون في حوكمة الذكاء الاصطناعي
تعد مشاركة أصحاب المصلحة أمرًا بالغ الأهمية لتطوير إطار حوكمة الذكاء الاصطناعي الشامل والفعال الذي يعكس وجهة نظر واسعة.
مجموعة واسعة من أصحاب المصلحة ، بما في ذلك الكيانات الحكومية والمنظمات الدولية والجمعيات التجارية ومنظمات المجتمع المدني ، هي المسؤولة عن حوكمة الذكاء الاصطناعي.نظرًا لأن المناطق والبلدان المختلفة لديها خلفيات قانونية وثقافية وسياسية مختلفة ، فقد تختلف هياكل الإشراف الخاصة بهم بشكل كبير.
يتطلب تعقيد حوكمة الذكاء الاصطناعي المشاركة النشطة لجميع قطاعات المجتمع ، بما في ذلك الحكومة والصناعة والأوساط الأكاديمية والمجتمع المدني.يضمن إشراك أصحاب المصلحة المختلفين النظر في وجهات نظر متعددة عند تطوير إطار حوكمة الذكاء الاصطناعي ، مما يؤدي إلى سياسات أكثر قوة وشاملة.
يزرع هذا الالتزام أيضًا إحساسًا مشتركًا بالمسؤولية عن التنمية الأخلاقية واستخدام تقنيات الذكاء الاصطناعي.من خلال إشراك أصحاب المصلحة في عملية الحوكمة ، يمكن لصانعي السياسات الاستفادة من مجموعة واسعة من الخبرة والرؤى لضمان أن يكون إطار حوكمة الذكاء الاصطناعى مستنيرًا وقابلاً للتكيف وقادرًا على مواجهة التحديات والفرص التي توفرها الذكاء الاصطناعى.
على سبيل المثال ، تسبب النمو الأسي في جمع البيانات ومعالجتها في مخاوف تتعلق بالخصوصية الخطيرة وتتطلب إطارًا صارمًا للحوكمة لحماية المعلومات الشخصية للأفراد.يتضمن ذلك الامتثال لقواعد حماية البيانات العالمية مثل الناتج المحلي الإجمالي ، والمشاركة النشطة لأصحاب المصلحة في تنفيذ تقنيات أمان البيانات المتقدمة لمنع الوصول غير المصرح به وانتهاكات البيانات.
5. قيادة مستقبل الحكم الذكاء الاصطناعي
سيتم تحديد مستقبل حوكمة الذكاء الاصطناعي من خلال التقدم التكنولوجي ، والقيم الاجتماعية المتزايدة واحتياجات التعاون الدولي.
مع تطوير تكنولوجيا الذكاء الاصطناعي ، سيديرها الإطار.قد يركز مستقبل حوكمة الذكاء الاصطناعي على ممارسات الذكاء الاصطناعى المستدامة والمتمحورة حول الناس.
تركز الذكاء الاصطناعى المستدامة على تطوير تقنيات صديقة للبيئة وقابلة للحياة اقتصاديًا على المدى الطويل.يعطي الذكاء الاصطناعي الذي يركز على الإنسان أنظمة تعزز القدرات البشرية والرفاهية ، مما يضمن أن تصبح الذكاء الاصطناعى أداة لتعزيز الإمكانات البشرية بدلاً من استبدال الإمكانات البشرية.
بالإضافة إلى ذلك ، تتطلب الطبيعة العالمية لتكنولوجيا الذكاء الاصطناعي تعاونًا دوليًا في إدارة الذكاء الاصطناعي.يتضمن ذلك تنسيق إطار تنظيمي عبر الحدود ، وزراعة المعايير العالمية لأخلاقيات الذكاء الاصطناعي ، وضمان نشر تقنيات الذكاء الاصطناعى بأمان عبر بيئات ثقافية وتنظيمية مختلفة.يعد التعاون العالمي هو المفتاح لمواجهة التحديات مثل تدفقات البيانات عبر الحدود وضمان مشاركة منظمة منظمة العفو الدولية في جميع أنحاء العالم.