المقدمة
يوضح هذا المستند كيفية إستخدام ميزة "منع فقدان البيانات" (DLP) لحماية البيانات الحساسة من الاستخدام من قبل ChatGPT.
نظرة عامة
فعالم الذكاء الاصطناعي يعج بالابتكارات، مثل نموذج لغة OpenAI، ChatGPT، الذي يقود الحملة. وكانت هذه المؤسسة الضخمة التابعة لمنظمة العفو الدولية تنمو بوتيرة سريعة، فحولت العديد من الصناعات من خلال محادثاتها الذكية الواعية للسياق. ولكن مع هذه التطورات المثيرة تأتي بعض التحديات المحتملة وعلى وجه التحديد مخاطر فقدان البيانات.
فكر في ChatGPT كشريك محادثة فائق الذكاء يولد نصا استنادا إلى ما تغذيه به. الآن، إذا كان هناك معلومات حساسة في المزيج ولم يتم التعامل معها بشكل صحيح، فهناك خطر حدوث خروقات للبيانات. وهذا يسلط الضوء على أهمية وجود خطة شاملة لمنع فقدان البيانات (DLP).
تم تصميم حل Umbrella DLP لحماية مؤسستك من هذه المخاطر. فيما يلي ثلاث حالات إستخدام ملحة يمكن أن يساعدك الحل الذي نوفره على معالجتها فورا ولا يستغرق تنفيذها سوى 5 دقائق تقريبا.
أ. التوافق مع قواعد خصوصية البيانات مثل GDPR و HIPPA و PCI-DSS:
-
- انتقل إلى السياسات > الإدارة > سياسة منع فقدان البيانات في لوحة معلومات المظلة الخاصة بك.
- بدء إنشاء قاعدة DLP جديدة. ببساطة انقر فوق إضافة قاعدة في الجانب العلوي الأيسر وحدد قاعدة الوقت الحقيقي.
- امنح القاعدة اسما يسهل التعرف عليه، مثل "حماية ChatGPT"، واختر مستوى الخطورة (أي شيء من منخفض إلى خطير) الذي يناسب إحتياجاتك.
- في قسم التصنيفات، أختر واحد أو أكثر من تصنيفات التوافق المضمنة ذات الصلة بمؤسستك. قد يكون هذا "تصنيف GDPR مدمج" أو "تصنيف PCI مدمج"، على سبيل المثال.
- في قسم الهويات، حدد كل الهويات التي تريد مراقبتها وحمايتها. وإذا كان ذلك ممكنا، نوصي باختيار واسع النطاق للتغطية الشاملة.
- انتقل إلى قسم الوجهات، وحدد قوائم الوجهة والتطبيقات للتضمين، ثم أختر OpenAI ChatGPT.
- والآن حان وقت العمل. في قسم الإجراء، يمكنك إختيار إما المراقبة أو الحظر. إذا كنت جديدا في هذا، نوصي ببدء إجراء "المراقبة". وهذا يتيح لك مراقبة أنماط الاستخدام واتخاذ قرار أكثر إستنارة حول المخاطر والفوائد المحتملة.
- إذا أخترت إجراء "المراقبة"، فتأكد من سحب تقرير DLP بعد أسبوع أو شهر. يوضح هذا لك من يقوم بمشاركة معلومات حساسة مع ChatGPT ومتى، يساعدك على تحديد ما إذا كان إجراء "الحظر" مطلوبا أم لا.
باء - حماية المعلومات الشخصية المحددة الهوية: لحماية PII في مؤسستك من مخاطر ChatGPT، ما عليك سوى إستخدام نفس التعليمات كما هو موضح أعلاه، ولكن في الخطوة 4، حدد "تصنيف PII المضمن" بدلا من تصنيفات التوافق.
جيم - حماية قانون المصدر والملكية الفكرية: إذا كانت مؤسستك تستخدم ChatGPT للأنشطة التي تتضمن كود المصدر أو خاصية فكرية أخرى، فاستخدم الخطوات التالية:
-
- أولا، قم بإنشاء تصنيف بيانات كود مصدر جديد. انتقل إلى السياسات > الإدارة > مكونات السياسة > تصنيف البيانات. انقر فوق الزر إضافة في الجانب العلوي الأيسر وأعط تصنيف بياناتك اسما يمكن التعرف عليه، مثل "تصنيف التعليمات البرمجية المصدر".
- أختر كود المصدر من قائمة معرفات البيانات المدمجة.
- انقر فوق حفظ.
- بعد الحفظ، أعد النظر في التعليمات الخاصة ب "التوافق مع لوائح خصوصية البيانات" أعلاه، ولكن في الخطوة 4، أختر تصنيف بيانات التعليمات البرمجية المصدر الذي تم إنشاؤه حديثا بدلا من التعليمات المدمجة.
إن هذه العملية بسيطة ومباشرة ولا تستغرق سوى بضع دقائق من وقتك، ولكن الفوائد التي تعود على أمن مؤسستك ومدى امتثالها لا تقدر بثمن. إننا نحثك على إتخاذ هذه الخطوات في أقرب وقت ممكن لتعزيز حماية بياناتك.
ارغب في معرفة المزيد حول مخاطر الذكاء الاصطناعي التوليدية وكيف يمكن أن تحميك Umbrella، راقب ندوة الويب يحمي بياناتك الحساسة من إستخدام ChatGPT.