كشفت تقارير أن شركة ميتا (الشركة الأم لفيسبوك) قد وافقت على استخدام نموذج الذكاء الاصطناعي "لاما" (LLaMA) لأغراض عسكرية، في خطوة أثارت موجة من الجدل في الأوساط التقنية والعسكرية.
وأثار هذا القرار انتقادات حادة من منظمات حقوق الإنسان وخبراء التكنولوجيا، الذين يرون أن استخدام الذكاء الاصطناعي في العمليات العسكرية قد يفاقم من تعقيدات الحروب ويعرض الأمن السيبراني العالمي لخطر غير مسبوق.
"لاما" من أبرز النماذج اللغوية المتقدمة التي طورتها ميتا، ويتميز بقدرات استثنائية في معالجة اللغة الطبيعية وتحليل البيانات.
القصة بدأت عندما تلقت ميتا طلبات من عدة حكومات ووكالات دفاعية لدمج هذا النموذج في تطبيقات مختلفة، تشمل تحليل البيانات الضخمة، وتعزيز تقنيات الاستخبارات، وأتمتة العمليات العسكرية. ورغم تأكيد ميتا في وقت سابق على التزامها بالمبادئ الأخلاقية في تطوير تقنياتها، بما في ذلك رفض استخدام الذكاء الاصطناعي لأغراض عسكرية، فإن هذه الاتفاقية تفتح الباب أمام إعادة النظر في علاقة شركات التكنولوجيا الكبرى بالقطاع العسكري.
يتميز "لاما" بقدرته على فهم وتحليل اللغة بشكل متقدم، مما يجعله أداة مثالية في المجالات العسكرية التي تتطلب التعامل مع كميات هائلة من البيانات النصية، مثل التقارير الاستخباراتية أو تحليل الاتصالات.
ويبدو أن هذه الخطوة من ميتا ستثير مزيدًا من النقاشات حول الاستخدامات الأخلاقية للتكنولوجيا في الحروب الحديثة، وقد تؤدي إلى ضغوط متزايدة على شركات التكنولوجيا الكبرى لتحديد حدود واضحة لاستخدامات الذكاء الاصطناعي في المستقبل.