تغيير مثير للجدل: لماذا تخلت غوغل عن مبدأها الأخلاقي بشأن الذكاء الاصطناعي؟
تكنولوجيا/الدستور الاخبارية/متابعات خاصة

قامت شركة “غوغل” بتحديث قواعدها المتعلقة بتطبيقات الذكاء الاصطناعي، حيث ألغت بندًا يمنع استخدام الذكاء الاصطناعي في تطوير الأسلحة، ولم تعد هذه الصياغة موجودة على موقعها الرسمي.
وفي تصريحات له، قال متحدث باسم الشركة: “نؤمن بأن الدول الديمقراطية يجب أن تقود جهود تطوير الذكاء الاصطناعي مع الالتزام بقيم أساسية مثل الحرية والمساواة واحترام حقوق الإنسان. وندعو الشركات والحكومات والمنظمات التي تتبنى هذه القيم إلى التعاون في خلق ذكاء اصطناعي يحمي الأفراد، ويعزز النمو العالمي، ويدعم الأمن الوطني”.
من جانبها، أعربت مارغريت ميتشيل، إحدى قادة فريق أخلاقيات الذكاء الاصطناعي في “غوغل”، عن قلقها حيال هذه الخطوة، معتبرةً أنها “ستجهض الجهود التي بذلها العاملون في مجال أخلاقيات الذكاء الاصطناعي والنشطاء داخل الشركة”. وأشارت إلى أن إزالة هذا البند تعني أن “غوغل” قد تكون في وضع يتيح لها تطوير تقنيات يمكن أن تُستخدم في إيذاء الأشخاص.
كانت المبادئ السابقة تنص على عدم مشاركة الشركة في “تطبيقات الذكاء الاصطناعي التي تسبب أو قد تسبب ضررًا عامًا”، بما في ذلك الأسلحة.