عندما منحت المملكة العربية السعودية الجنسية للروبوت صوفيا، معظم الأشخاص كان يعتقد أنّها مجرد دعوة لفتح أبواب الاستثمارات المستقبلية.
ويبدو أنّ صوفيا بدأت تستفيد مما أعطي لها منذ تاريخ منحها الجنسية السعودية، وتستخدم ذكاءَها الاصطناعي لتكون عنصرًا من العناصر المناصرة لحقوق المرأة لبلد أعطيت فيه النساء فقط حق قيادة السيارات، والذي كان في سيبتمبر / أيلول هذا العام.
قال Hanson مصمم الروبوت صوفيا لوكالة CNBC: “صوفيا من أكبر المدافعين عن حقوق المرأة، وحقوق جميع البشر. لذلك، نحن بصدد تطوير ذلك”.
وأضاف: “تسعى صوفيا لحصول المرأة السعودية على كامل حقوقها، وتسعى بذلك أيضًا بشأن حقوق جميع البشر، وجميع الكائنات الحية على هذا الكوكب”.
في حين يبدو ذلك نبيلًا للغاية، فمن الصعب عدم رؤية السخرية من موقف صوفيا، فروبوتات الذكاء الاصطناعي ليس لديهم أي حقوق، على رغم من جنسية صوفيا، والموطن الرسمي والمسجل لروبوتات الذكاء الاصطناعي في اليابان، إلّا أنّ دعوة هذه الروبوتات لمثل هذه القيم الكبرى يبدو سخيفًا لدى الكثيرين.
“ولكن لماذا لا؟” هذا السؤال الذي طرحه المدير التنفيذي لشركة Aiva Technologies، وقد أوضح بعدها: “إنّ هذه الروبوتات تجتذب الكثير من الاهتمام، يمكن استخدام الضوء المسلط عليها لرفع قضايا مهمة معينة في نظر أصحاب القرار، فلكل مواطن له حقوق وواجبات تجاه المجتمع، ومن الصعب تصور الروبوتات أن تقتصر ففط في قدراتها، فصوفيا تملك المواطنة ويمكن أن يدفعها ذلك من الاستفادة القصوى من الحقوق المرتبطة بمواطنتها، والوفاء أيضًا بالتزاماتها”.
حقوق الإنسان و الآلات؟
الروبوتات كصوفيا تقاتل من أجل حقوق المرأة، ماذا بشأن حقوقها هي؟!
الخبراء بدأوا ينظرون إلى نوع الحقوق التي يجب منحها إلى الكائنات الاصطناعية، أو إذا أردنا البقاء في مصطلح حقوق الإنسان، فإنّ هانسون يدّعي أنّ صوفيا تمتك عقل طفل حاليًا، فهي تمتلك مفردات و القدرة على الكلام و التفكير ويتم الآن تعليمها من قبل بالغين، ومع التطوير ستتمكن يومًا من الإيام الوصول إلى عقل بالغ. لذلك، علينا إعطاءَها طفولتها.
ولكن هل للأطفال حقوق وواجبات، وحق للمطالبة ومناقشة قيم كبرى؟!
هذا السؤال الذي أثار Raja Chatila، رئيس اللجنة التنفيذية للمبادرة العالمية للاعتبارات الأخلاقية في الذكاء الاصطناعي، والنظم المستقلة في معهد مهندسي الكهرباء والإلكترون (IEEE)، والذي كان له وجهة نظر مختلفة.
حيث قال: “لا يمكن لأي نظام للذكاء الاصطناعي أو روبوت أن يكون له رأي، ففي برنامج أي نظام ذكاء اصطناعي لايوجد ما يسمى “نقاش”، ولا يعرف ماهية المناقشة، وبالتالي فإنّه لا يعرف ما هي المرأة، وما معنى حقوق، إنّها مجرد تكرارات نصوص قام مبرمج بإدخالها إلى برنامجها”.
وطرح مثالًا على ذلك بأنّ الروبوت Tay لمايكروسوفت، الذي صدر في عام 2016 سلط الضوء على كيفية التقاط الذكاء الاصطناعي على نوع خاطِئ من القيم، حيث هذا الروبوت تعلم أشياء سيئة للغاية بعد تعرضه لتغريدات عنصرية وجنسية.
وفي هذا الصدد، يعتقد شاتيلا أنّ وكلاء الذكاء الاصطناعي لا ينبغي أن تعطي أي حقوق لروبوتاتها، ولا ينبغي أن تحصل على مواطنة، فالبشر قادرون على التعبير عن أفكارهم الحرة، وسيكونون مسؤولين عن أفعالهم، أمّا الروبوتات هناك مبرمجين يقعون خلفه، وحتى ولو كان البرنامج قادرًا على التعلم، فهي سوف تتعلم ما تم تصميمه لتتعلمه، أي المسؤولية ستكون للمصمم البشري.
وهذا هو السبب في أنّ (IEEE) نشرت دليلًا للتنمية الأخلاقية للذكاء الاصطناعي، وخاصةً بعد أن أشار تشاتيلا أنّ الروبوتات تتخذ اتخاذات أخلاقية؛ لأنّه تم تضمين ذلك بنظامها، وليس لأنّها موجودة في الأساس، وبالتالي قراراتها لن تكون أخلاقيةً بنفس معنى قرارات البشر؛ لأنّ البشر قادرون على اختيار أخلاقياتهم الخاصة مع كامل إرادتهم الحرة.