يشير الذكاء الاصطناعي (AI) إلى محاكاة الذكاء البشري في آلات مبرمجة للتفكير والتصرف مثل البشر، تمكّن تقنيات الذكاء الاصطناعي أجهزة الكمبيوتر من أداء المهام التي تتطلب عادةً ذكاءً بشريًا، مثل الإدراك البصري والتعرف على الكلام واتخاذ القرار وترجمة اللغة.
حددت دراسة بقيادة أستاذ من جامعة سنترال فلوريدا ستة تحديات يجب التغلب عليها من أجل تحسين علاقتنا مع الذكاء الاصطناعي (AI) وضمان استخدامه الأخلاقي والعادل، وفقاً لموقع scitechdaily.
نشر أستاذ من جامعة سنترال فلوريدا و 26 عالمًا آخر دراسة تسلط الضوء على العقبات التي يجب على البشرية معالجتها لضمان أن يكون الذكاء الاصطناعي (AI) موثوقًا وآمنًا وجديرًا بالثقة ومتوافقًا مع القيم الإنسانية.
نُشرت الدراسة في المجلة الدولية للتفاعل بين الإنسان والحاسوب.
عمل أوزليم غاريباي، الأستاذ المساعد في قسم الهندسة الصناعية وأنظمة الإدارة بجامعة كاليفورنيا، كباحث رئيسي للدراسة، وفقًا لـ Garibay، بينما أصبحت تقنية الذكاء الاصطناعي منتشرة بشكل متزايد في مختلف جوانب حياتنا، فقد قدمت أيضًا العديد من التحديات التي تحتاج إلى فحص دقيق.
على سبيل المثال، قد يؤثر التكامل الواسع القادم للذكاء الاصطناعي بشكل كبير على حياة الإنسان بطرق لم يتم فهمها بالكامل بعد، كما يقول غاريباي، الذي يعمل على تطبيقات الذكاء الاصطناعي في تصميم المواد والأدوية واكتشافها، وكيف يؤثر الذكاء الاصطناعي على الأنظمة الاجتماعية.
التحديات الستة التي حددها غاريباي وفريق الباحثين هي:
رفاهية الإنسان: يجب أن يكون الذكاء الاصطناعي قادرًا على اكتشاف فرص التنفيذ من أجل إفادة رفاهية البشر، ويجب أيضًا مراعاة دعم رفاهية المستخدم عند التفاعل مع الذكاء الاصطناعي.
المسؤول: يشير الذكاء الاصطناعي المسؤول إلى مفهوم إعطاء الأولوية لرفاهية الإنسان والمجتمع عبر دورة حياة الذكاء الاصطناعي، وهذا يضمن الاستفادة من الفوائد المحتملة للذكاء الاصطناعي بطريقة تتماشى مع القيم والأولويات البشرية، مع التخفيف أيضًا من مخاطر العواقب غير المقصودة أو الانتهاكات الأخلاقية.
الخصوصية: يجب النظر بعناية في جمع البيانات واستخدامها ونشرها في أنظمة الذكاء الاصطناعي لضمان حماية خصوصية الأفراد ومنع الاستخدام الضار ضد الأفراد أو الجماعات.
التصميم: يجب أن تستخدم مبادئ التصميم التي تركز على الإنسان لأنظمة الذكاء الاصطناعي إطارًا يمكنه إعلام الممارسين، سيميز هذا الإطار بين الذكاء الاصطناعي ذي المخاطر المنخفضة للغاية، والذكاء الاصطناعي الذي لا يحتاج إلى تدابير خاصة، والذكاء الاصطناعي الذي ينطوي على مخاطر عالية للغاية، والذكاء الاصطناعي الذي لا ينبغي السماح به.
الحوكمة والرقابة: هناك حاجة إلى إطار حوكمة يأخذ في الاعتبار دورة حياة الذكاء الاصطناعي بأكملها من المفهوم إلى التطوير إلى النشر.
التفاعل بين الإنسان والذكاء الاصطناعي: لتعزيز علاقة أخلاقية وعادلة بين البشر وأنظمة الذكاء الاصطناعي، من الضروري أن تستند التفاعلات إلى المبدأ الأساسي لاحترام القدرات المعرفية للبشر، على وجه التحديد، يجب على البشر الحفاظ على السيطرة الكاملة والمسؤولية عن سلوك ونتائج أنظمة الذكاء الاصطناعي.
تضمنت الدراسة، التي أجريت على مدار 20 شهرًا، آراء 26 خبيرًا دوليًا لديهم خلفيات متنوعة في تكنولوجيا الذكاء الاصطناعي.
يقول غاريباي: "تتطلب هذه التحديات إنشاء تقنيات ذكاء اصطناعي محورها الإنسان تعطي الأولوية للأخلاق والإنصاف وتعزيز رفاهية الإنسان، تحث التحديات على اعتماد نهج محوره الإنسان يتضمن التصميم المسؤول، وحماية الخصوصية، والالتزام بمبادئ التصميم التي تركز على الإنسان، والحوكمة والرقابة المناسبة، والتفاعل المحترم مع القدرات الإدراكية البشرية".
بشكل عام، هذه التحديات هي دعوة للعمل من أجل المجتمع العلمي لتطوير وتنفيذ تقنيات الذكاء الاصطناعي التي تعطي الأولوية للبشرية وتفيدها .
تم أضافة تعليقك سوف يظهر بعد المراجعة