كشفت تقارير إعلامية أمريكية، اليوم السبت، عن معطيات مثيرة تتعلق باستخدام نموذج «كلاود» للذكاء الاصطناعي في عملية وُصفت بالحساسة، قيل إنها استهدفت الرئيس الفنزويلي Nicolás Maduro الشهر الماضي في العاصمة كاراكاس.
وبحسب ما أوردته صحيفة The Wall Street Journal نقلًا عن مصادر مطلعة، فإن الجيش الأمريكي استعان بنموذج «كلاود» التابع لشركة Anthropic ضمن العملية، رغم أن سياسات الشركة تنص صراحة على حظر استخدام أدواتها في أعمال العنف أو تطوير الأسلحة أو تنفيذ عمليات مراقبة.
صمت رسمي… وتحفّظ تقني
وزارة الدفاع الأمريكية امتنعت عن التعليق على ما ورد في التقرير، في حين اكتفت «أنثروبيك» بالتأكيد على أن جميع استخدامات نماذجها يجب أن تلتزم بسياساتها المعلنة، رافضة الخوض في تفاصيل أي استخدام محتمل في عمليات سرية.
وتشير المعطيات إلى أن دخول «كلاود» إلى هذا السياق جاء عبر شراكة بين «أنثروبيك» وشركة Palantir Technologies، التي تعتمد عليها مؤسسات الدفاع والأجهزة الأمنية الأمريكية في تحليل البيانات وإدارة العمليات المعقدة.
عقد بـ200 مليون دولار على المحك
في تطور لافت، تفيد تقارير بأن الإدارة الأمريكية تدرس تعليق عقد بقيمة 200 مليون دولار مع «أنثروبيك»، وسط توتر متصاعد بين الطرفين. ويعود هذا التوتر، وفق المصادر، إلى مخاوف الشركة من الاستخدامات العسكرية غير المقيدة لنماذج الذكاء الاصطناعي.
الملف يعيد إلى الواجهة سؤالًا مركزيًا: إلى أي مدى يمكن الفصل بين التطوير المدني للذكاء الاصطناعي وتطبيقاته العسكرية؟
سباق التسلح الرقمي… والحدود الأخلاقية
الولايات المتحدة تسعى إلى توسيع اعتمادها على تقنيات الذكاء الاصطناعي في مهام عسكرية متعددة، تشمل تحليل كميات ضخمة من الوثائق، دعم اتخاذ القرار العملياتي، وتشغيل أنظمة ذاتية متقدمة. غير أن هذا التوجه يثير نقاشًا واسعًا في الأوساط الأكاديمية والسياسية حول مخاطر “تسليح” الذكاء الاصطناعي، وإمكانية تحوله إلى أداة مراقبة أو تدخل مباشر في النزاعات.
في المحصلة، تكشف القضية عن معركة خفية تدور خلف الكواليس: معركة بين ضرورات الأمن القومي، وضوابط الشركات التقنية، وحدود الأخلاقيات في عصر الخوارزميات. وبين الرواية الرسمية والتقارير الصحفية، يبقى السؤال مفتوحًا حول حقيقة ما جرى… وحول شكل الحروب المقبلة في زمن الذكاء الاصطناعي.



