تحذر التصريحات الحديثة لرئيس شركة OpenAI المستخدمين من الاعتماد الزائد على شريك الدردشة الذكي شات جي بي تي لأمور حساسة نظرًا لعدم توفر ضمان كامل للخصوصية وحمايتها قانونيًا.

يجد مستخدمو تطبيق "شات جي بي تي" أنفسهم أمام تساؤلات متزايدة حول خصوصية معلوماتهم الشخصية، خاصة بعد تصريحات الرئيس التنفيذي لشركة "OpenAI"، سام ألتمان. أكد ألتمان أن قطاع الذكاء الاصطناعي لم يجد بعد الطرق المثلى لحماية المحادثات الخاصة للمستخدمين، وأن بعض هذه المحادثات قد تُستخدم في إجراءات قانونية إذا اقتضى الأمر، وقد تُعرض في المحاكم عند الضرورة.

أشار ألتمان إلى إمكانية مراجعة البشر لمحتوى المحادثات عبر "شات جي بي تي"، بالإضافة إلى احتمالية استدعائها بأوامر قضائية. وأوضح قائلاً: "نحن نبذل قصارى جهدنا لحماية خصوصية المستخدمين، ولكن إذا تطلب القانون تسليم المعلومات، فعلينا الامتثال لذلك".

رغم أن "ChatGPT" ليس حديث العهد، إلا أنه أضاف بُعداً جديداً للتفاعل مع التكنولوجيا التي أصبحت جزءًا لا يتجزأ من حياتنا اليومية. يقدم التطبيق مساعدات في مجالات متنوعة مثل تخطيط الرحلات وإدارة الأنشطة اليومية والمهنية. ومع ذلك، يجب استخدامه بحذر وعدم مشاركته بكل شيء.

هل يجمع "ChatGPT" البيانات؟

بالفعل يقوم بجمع كميات كبيرة من البيانات التي تعتمد على تحليل العديد من النقاط لتقديم الخدمة بشكل أفضل. تتضمن البيانات المسجلة عنوان IP ونوع المتصفح والموقع الجغرافي وبيانات الجهاز المستخدمة وملفات تعريف الارتباط.

كيفية استخدام "ChatGPT" بأمان

استخدام تقنيات حماية الإنترنت مثل الشبكة الافتراضية الخاصة (VPN) وبرامج مكافحة الفيروسات يساعد في تقليل مخاطر سرقة البيانات الشخصية والهويات. ينصح الخبراء بتبني مجموعة متنوعة من أساليب الأمان لضمان سلامة بياناتك أثناء الاستخدام.

مخاطر تجنبها في محادثاتك مع "شات جي بي تي"

عمليات التصيد الاحتيالي المدعومة بالذكاء الاصطناعي

يعمد المهاجمون إلى استخدام بيانات حساسة لإنتاج رسائل تصيد احتيالي مقنعة يصعب اكتشافها. لذا ينبغي التحقق من مصدر الرسائل دائماً وعدم النقر على الروابط المشبوهة واستخدام المواقع الرسمية للتحقق من الطلبات المستلمة عبر البريد الإلكتروني.

البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي

يمكن للمهاجمين استغلال التقنية لإنشاء برامج خبيثة متعددة الأشكال تتجنب الاكتشاف الأمني بسهولة.

معلومات غير دقيقة

واجهت دقة "ChatGPT" انتقادات بسبب تقديم معلومات مضللة أو قديمة في بعض الأحيان وفق دراسات أجرتها جامعات مرموقة مثل ستانفورد وبيركلي في عام 2023.

تطبيقات وإضافات مشابهة خبيثة

ورغم أن نفسه ليس ضاراً، هناك إضافات وتطبيقات تنتحل صفته وتشكل خطراً أمنياً كبيراً إذا تم تنزيلها عن طريق الخطأ.

الامتياز القانوني والحماية القانونية

لا يتمتع "ChatGPT" بالحماية القانونية الكاملة التي تغطي العلاقات المهنية التقليدية مثل تلك بين الطبيب والمريض أو المحامي والموكل. مما يعني أن أي معلومات حساسة يُفصح عنها للمحرك قد تكون عرضة للاستدعاء القضائي والاستخدام كدليل أمام المحكمة حال تطلب القانون ذلك. وقد يختلف الوضع القانوني باختلاف الدول وتعاملاتها مع الخصوصية الرقمية والسياسات المرتبطة بها."