في وقتٍ بات فيه الذكاء الاصطناعي جزءاً لا يتجزأ من تفاصيل الحياة الرقمية اليومية، تتصاعد التحذيرات من المخاطر الكامنة وراء سوء استخدام هذه الأدوات، وفي مقدمتها روبوت الدردشة الأشهر عالمياً ChatGPT، الذي لم يعد مجرد وسيلة للإجابة عن الأسئلة، بل أصبح شريكاً رقمياً حاضراً في العمل، والدراسة، وحتى في أدق تفاصيل الحياة الشخصية.
وبحسب بيانات حديثة، يردّ ChatGPT على نحو 2.5 مليار طلب يومياً حول العالم، تستحوذ الولايات المتحدة وحدها على قرابة 330 مليون طلب، ما يجعله من أكثر المنصات التقنية استخداماً وتأثيراً، وفق موقع SlashGear.
وعلى عكس محركات البحث التقليدية التي تكتفي بعرض روابط ومصادر، يتفاعل ChatGPT بأسلوب حواري يحاكي التواصل الإنساني، وهو ما يدفع كثيرين – دون انتباه – إلى مشاركة معلومات حساسة، معتقدين أنهم يتحدثون مع أداة ذكية محايدة، لا مع نظام قد تُخزَّن أو تُحلَّل مدخلاته بطرق معقدة.
وفي خضم الجدل المتواصل حول أمن البيانات وحداثة هذه التكنولوجيا، يبرز سؤال محوري: ما الذي لا يجب مشاركته مع ChatGPT؟
معلومات شخصية… الطريق الأسرع إلى سرقة الهوية
تتصدر البيانات الشخصية القابلة للتعريف قائمة المعلومات المحظور مشاركتها، وتشمل الأسماء الكاملة، العناوين، أرقام الهوية، أرقام الهواتف، والبريد الإلكتروني.
وكشفت دراسة أجراها فريق Safety Detectives على ألف محادثة عامة في ChatGPT أن عدداً لافتاً من المستخدمين أفصحوا عن بيانات شديدة الحساسية، بل إن بعضهم شارك أسماء مستخدمين وكلمات مرور بشكل مباشر.
ويحذّر خبراء الأمن السيبراني من أن هذه البيانات قد تتحول، في حال تسريبها أو استغلالها، إلى أداة لسرقة الهوية، أو تنفيذ عمليات احتيال رقمية واسعة النطاق، يصعب لاحقاً احتواء آثارها.
التفاصيل المالية… مخاطرة لا تُغتفر
رغم لجوء الكثيرين إلى ChatGPT للمساعدة في التخطيط المالي أو إعداد الميزانيات، فإن مشاركة أي تفاصيل مالية حقيقية تمثل خطراً كبيراً.
وتشمل هذه التفاصيل أرقام الحسابات البنكية، بطاقات الائتمان، السجلات الضريبية، أو أي معلومات مصرفية أخرى. فهذه المنصة لا تخضع لأنظمة الحماية المشددة المعتمدة في المؤسسات المالية، ما يجعل البيانات المدخلة عرضة للتسرب أو الاستغلال من جهات خبيثة.
البيانات الطبية… خصوصية خارج السيطرة
يتزايد اعتماد المستخدمين على أدوات الذكاء الاصطناعي للحصول على معلومات صحية، إذ تشير استطلاعات إلى أن واحداً من كل ستة بالغين يستخدم هذه الأدوات شهرياً لهذا الغرض.
غير أن مشاركة التشخيصات الطبية، نتائج التحاليل، أو التاريخ المرضي، خاصة عند ربطها بمعلومات تعريفية، يُخرج هذه البيانات من نطاق أنظمة حماية المعلومات الصحية، ويجعل التحكم فيها لاحقاً شبه مستحيل، مع ما يحمله ذلك من مخاطر نفسية وقانونية.
ملفات العمل والأسرار المهنية
تحذّر التقارير كذلك من إدخال مستندات أو مراسلات مهنية سرية في ChatGPT، سواء كانت تخص شركات، عملاء، أو مشاريع غير معلنة.
فمحاولة تلخيص تقرير، أو إعادة صياغة بريد إلكتروني مهني، قد تؤدي – دون قصد – إلى تعريض معلومات محمية قانونياً أو حقوق ملكية فكرية لمخاطر جسيمة، قد تكلّف أصحابها خسائر مهنية وقانونية فادحة.
المحتوى غير القانوني… سلاح يرتد على صاحبه
يشدد الخبراء على ضرورة تجنب مشاركة أي محتوى غير قانوني، إذ تؤكد شركة OpenAI التزامها بالتعاون مع السلطات القانونية الأمريكية والدولية عند الطلب.
كما أن القوانين الرقمية في تطور مستمر، ما يعني أن ممارسات قد تبدو عادية اليوم، قد تتحول في وقت قصير إلى مخالفات قانونية تُعرّض أصحابها للمساءلة.
القاعدة الذهبية
ويرى مختصون أن القاعدة الذهبية في التعامل مع ChatGPT تكمن في سؤال بسيط:
هل تقبل أن ترى هذه المعلومة منشورة على منصة عامة؟
إن كان الجواب لا، فلا ينبغي مشاركتها.
ورغم الفوائد الكبيرة التي توفرها أدوات الذكاء الاصطناعي، من تسهيل المعرفة إلى رفع الإنتاجية، يبقى الوعي الرقمي والحذر شرطاً أساسياً للاستخدام الآمن، في عالم تتسارع فيه التكنولوجيا بوتيرة غير مسبوقة، ولا ترحم فيه الأخطاء الصغيرة.



