Un ثغرة أمنية في برنامج Microsoft 365 Copilot أثار هذا الأمر مجدداً مخاوف بشأن استخدام الذكاء الاصطناعي في بيئات العمل. فعلى مدى عدة أسابيع، كان مساعد مايكروسوفت المدعوم بالذكاء الاصطناعي قادراً على الوصول إلى رسائل البريد الإلكتروني المصنفة على أنها سرية وتلخيصها في برنامج Outlook، متجاوزًا القيود التي كان من المفترض أن تحمي هذا المحتوى.
وقد أدى الحادث، الذي اكتشفه المسؤولون في البداية ووثقته وسائل الإعلام المتخصصة مثل Bleeping Computer، إلى وضع القضية تحت المجهر. موثوقية تدابير حماية البيانات في أدوات الذكاء الاصطناعي المدمجة في حزم البرامج المكتبية مثل مايكروسوفت 365، وخاصة في السياق الأوروبي الذي يتسم بلوائح خصوصية صارمة مثل RGPD.
أدى خلل في Office 365 إلى فتح الباب أمام برنامج Copilot

بحسب المعلومات المنشورة، كان أصل المشكلة هو خطأ في نظام الأذونات الخاص بإصدار سطح المكتب من Outlook و Wordضمن بيئة مايكروسوفت 365، تُعدّ ميزة المحادثة Copilot Chat جزءًا لا يتجزأ من... "علامة تبويب العمل" من نافذة الدعم، بدأ البرنامج بمعالجة وتلخيص الرسائل التي تم تمييزها بوضوح بـ تصنيفات حساسية مثل "خاص" أو "سري".
تم تتبع هذا الخلل داخليًا بواسطة مايكروسوفت باستخدام المعرف CW1226324 وتم اكتشافه لأول مرة 21 يناير 2026منذ تلك اللحظة وحتى تطبيق التصحيح، تعامل برنامج Copilot مع المحتوى على أنه متاح للمساعد. رسائل البريد الإلكتروني المخزنة في مجلدي "المسودات" و"العناصر المرسلة"حتى عندما كانت تلك الرسائل تحمل ملصقات سرية من المفترض نظرياً أن تمنع أي وصول آلي.
هذا يعني أنه عند طرح أسئلة عامة على المساعد، قد يتلقى بعض المستخدمين ملخصات ومعلومات مستخرجة من رسائل بريد إلكتروني سرية، بما في ذلك البيانات التي كان من المفترض أن تظل محصورة في دائرة صغيرة جدًا من المستلمين داخل نفس المنظمة.
وفقًا لوثائق الشركة، فإن الثغرة الأمنية تؤثر بشكل خاص على مايكروسوفت 365 مساعد الطيار الدردشة في تطبيقات سطح المكتب مثل Outlook و Word و Excel و PowerPoint، حيث يتم تسويق المساعد على أنه أداة "واعية بالمحتوى" قادرة على كتابة المعلومات وتلخيصها وتحليلها في الوقت الفعلي.
كيف تم الكشف عن معلومات حساسة
وبعيداً عن الحكايات التقنية، فإن ما يقلق الشركات وخبراء الأمن السيبراني حقاً هو كيف يمكن أن يتم الكشف عن المعلومات السريةعند معالجة رسائل البريد الإلكتروني المحمية، قامت شركة Copilot بدمج أجزاء من تلك الرسائل في نظامها. السياق المباشر للاستجابةمما فتح الباب أمام إمكانية توليد ردود تتضمن إشارات إلى: في ظل استعلامات معينة
- بيانات الرواتب أو الأجور من الموظفين.
- استراتيجيات الأعمال الداخلية وخطط العمل.
- معلومات مالية تفاصيل حساسة أو تفاصيل الفواتير.
- المشكلات المتعلقة بالصحة أو بيانات أخرى محمية بشكل خاص.
حدث هذا السلوك في نفس بيئة العمللذلك، تُصرّ مايكروسوفت على أنه لم يكن هناك اختراق خارجي بالمعنى التقليدي (أي لم يتم فتح أي منفذ للمهاجمين من خارج المؤسسة). ومع ذلك، فإن حقيقة أن موظفون بدون إذن صريح إن إمكانية تلقيهم، عبر برنامج Copilot، ملخصات تستند إلى رسائل بريد إلكتروني سرية من زملاء آخرين، تثير التساؤل حول ما إذا كان بإمكانهم تلقي، عبر برنامج Copilot، ملخصات تستند إلى رسائل بريد إلكتروني سرية من زملاء آخرين. شكوك جدية بشأن الامتثال بالمقارنة مع أطر عمل مثل اللائحة العامة لحماية البيانات الأوروبية أو سياسات منع فقدان البيانات الداخلية (DLP).
في الواقع، تسبب الخلل في سياسات منع فقدان البيانات (DLP) وتصنيفات حساسية Microsoft Purview تم نقلها مؤقتًا إلى الخلفية خلال جلسات دردشة معينة، بحيث تعامل المساعد مع المحتوى الذي كان ينبغي منعه تمامًا من المعالجة الآلية.
التأثير على عملاء الأعمال والمخاطر التنظيمية
الخطأ الذي أثر بشكل أساسي عملاء الدفع من الشركات التي سبق لها استخدام Copilot كجزء من تراخيص Microsoft 365 الخاصة بها، وهو ملف تعريف يشمل العديد من الشركات الأوروبية الخاضعة لالتزامات صارمة حماية البيانات الشخصية والأسرار التجاريةبالنسبة لهذه المنظمات، يمكن تفسير الحادث على أنه احتمال انتهاك سياسات الخصوصية الداخلية الخاصة بهم وحتى الالتزامات التعاقدية مع العملاء والشركاء.
في القطاعات الخاضعة للتنظيم - مثل الخدمات المصرفية والتأمين، الصحة- الإدارة العامة أو مكاتب المحاماة - قد يعني الكشف غير المباشر عن رسائل البريد الإلكتروني المحمية انتهاكات اللائحة العامة لحماية البيانات إذا ثبت أن المعلومات كانت متاحة لأشخاص لم يكن ينبغي لهم رؤيتها أو أنها تمت معالجتها بدون أساس قانوني كافٍ.
أكد العديد من المحللين أنه على الرغم من أن نطاق الحادث يبدو يقتصر على بيئات شركات محددة وبما أنه لم يتم الإبلاغ عن أي تسريبات ضخمة، فإن هذه القضية بمثابة تحذير واضح: يجب على الشركات التي تدمج أدوات الذكاء الاصطناعي في بريدها الإلكتروني ومستنداتها أن تراجع ممارساتها بدقة. ما هي البيانات التي يتم عرضها للمساعد؟ وكيفية إدارة الأذونات الفعلية مقابل الأذونات المتصورة.
في أوروبا، حيث الحساسية المحيطة بالخصوصية عالية بشكل خاص، وحيث يجري بالفعل نقاش حول إطار عمل محدد للذكاء الاصطناعي، فإن مثل هذه الحوادث تغذي خطاب أولئك الذين يدعون إلى تشديد الضوابط حول نشر المساعدين الأذكياء في السحابة.
الرد الرسمي من مايكروسوفت
أقرت مايكروسوفت علنًا بالمشكلة ووصفتها بأنها "خطأ في الكود" أو "خلل برمجي" مما أدى إلى تغيير السلوك المقصود لبرنامج الطيار الآلي. وتصر الشركة على أن البنية التحتية الأمنية وضوابط الوصول الأساسية لم يتم المساس بهاومع ذلك، فهو يعترف بأن التجربة الفعلية لم تتوافق مع تصميم المنتج الأصلي، والذي كان من المفترض أن يستبعد أي تعامل مع المحتوى المحمي بملصقات السرية.
أوضح المتحدثون باسم الشركة في المراسلات المرسلة إلى العملاء ووسائل الإعلام أن تم بالفعل نشر تصحيح من جانب الخادمدون الحاجة إلى تدخل يدوي من المستخدمين. بدأ تطبيق التصحيح تدريجياً ابتداءً من 10 لشهر فبراير، مع المراقبة المستمرة للتحقق من أن سلوك Copilot كان متوافقًا مرة أخرى مع سياسات DLP وعلامات الحساسية.
وأشارت الشركة أيضاً إلى أنها إخطار المنظمات المتضررة مباشرة والتحقق معهم من أن التحديث يعمل كما هو متوقع. علاوة على ذلك، فقد التزمت بإزالة أي محتوى تم استخدامه من فهارس معالجة Copilot تم التعامل معه بشكل غير صحيح بسبب الخلل.
أكدت مايكروسوفت في بياناتها العلنية أن خصوصية العملاء وحماية البيانات لا تزال هذه العناصر تشكل ركائز أساسية لاستراتيجيتهم في مجال الذكاء الاصطناعي التوليدي، وسيواصلون تعزيز آليات التحكم لمنع حدوث مشكلة مماثلة مرة أخرى.
مساعد الطيار، والاندفاع نحو الذكاء الاصطناعي، وسلسلة الإخفاقات
الحادثة مع رسائل البريد الإلكتروني السرية التي تتم معالجتها بواسطة Copilot يأتي هذا في وقت تُسرّع فيه مايكروسوفت من دمج مساعدها المدعوم بالذكاء الاصطناعي في نظامها البيئي بالكامل تقريبًا: من وورد، إكسل، باوربوينت، وأوتلوك بما في ذلك متصفح Edge وبيئة عمل Microsoft 365 والخدمات ذات الصلة نوافذ 11 وإكس بوكس.
يُثير هذا التنافس على ترسيخ مكانة الشركة في سوق الذكاء الاصطناعي، بالتوازي مع لاعبين آخرين مثل جوجل أو أوبن إيه آي، شعورًا مختلطًا بين المستخدمين والخبراء: فمن جهة، تعد الميزات الجديدة بـ الإنتاجية والأتمتةمن ناحية أخرى، فإن سرعة الانتشار تغذي المخاوف من تمر الأخطاء الجسيمة دون أن يلاحظها أحد إلى أن يكون لها تأثير مباشر على الخصوصية والأمن.
في الأشهر الأخيرة، اضطرت مايكروسوفت بالفعل إلى تحقق من وجود برنامج Copilot في نظام التشغيل Windows 11 بعد ورود تقارير عن سلوك غير متوقع وأعطال في نظام التشغيل، انضمت الحالة CW1226324 إلى هذه القائمة، مما يعزز الاعتقاد بأنه لا يزال هناك طريق طويل قبل أن يتم دمج مساعدي الذكاء الاصطناعي بشكل موثوق في البيئات الحساسة، سواء في إسبانيا أو بقية أوروبا.
يشير متخصصو الأمن السيبراني إلى أن نماذج اللغة الكبيرة تعمل، إلى حد كبير، كـ "الصناديق السوداء"بمجرد دخول معلومات معينة إلى سياق المعالجة الخاص بك، قد يكون من الصعب للغاية ضمان عدم ظهورها بشكل غير مباشر في الاستجابات المستقبلية، حتى في حالة تطبيق عوامل تصفية وقواعد إضافية.
الآثار المترتبة على الشركات الأوروبية والإدارات العامة
بالنسبة للشركات التي تتخذ من الاتحاد الأوروبي مقراً لها أو التي تعالج بيانات المواطنين الأوروبيين، فإن لهذا الحادث تداعيات بالغة الحساسية. ملصقات السرية، وسياسات منع فقدان البيانات، والتزامات اللائحة العامة لحماية البيانات. وقد دفع هذا العديد من المنظمات إلى الاعتقاد بأن استخدام برنامج Copilot في بريدها الإلكتروني المؤسسي يمثل مخاطرة يمكن التحكم فيها.
حقيقة أن أ خطأ برمجي إن حقيقة أن هذا كان كافياً لإلغاء تلك الضمانات لأسابيع تثير الحاجة إلى مراجعة تقييمات أثر حماية البيانات (DPIAs) المرتبطة بأدوات الذكاء الاصطناعي، بالإضافة إلى اتفاقيات معالجة البيانات مع مزودين مثل مايكروسوفت.
في حالة الإدارات العامة الأوروبيةبالنسبة لأولئك الذين يناقشون بالفعل ما إذا كانوا سيتبنون هذا النوع من المساعدين في حياتهم اليومية أم لا، يمكن استخدام قضية Copilot كحجة للمطالبة مزيد من الشفافية التقنيةعمليات تدقيق خارجية وآليات تحكم إضافية قبل السماح بنشر واسع النطاق في رسائل البريد الإلكتروني الرسمية أو الأنظمة الداخلية.
حتى في القطاع الخاص، تفكر العديد من الشركات في إسبانيا في تعزيز سياسات استخدام الذكاء الاصطناعي الداخليةتحديد نوع المعلومات التي يمكن مشاركتها مع هؤلاء المساعدين ووضع قواعد واضحة للفرق القانونية أو الموارد البشرية أو الأقسام الطبية، حيث يكون مستوى السرية في أعلى مستوياته.
دروس في إدارة المخاطر باستخدام مساعدي الذكاء الاصطناعي
وبعيدًا عن التركيز على مايكروسوفت، تقدم حالة Copilot العديد من الدروس العملية لأي مؤسسة تُدمج مساعدي الذكاء الاصطناعي في عملياتها اليومية. أولها أنه لا يكفي ثق بالإعدادات الافتراضيةمن الضروري مراجعة الأذونات الفعلية التي نمنحها لهذه الأدوات بعناية وتطبيق مبدأ "أقل الامتيازات" وكذلك في مجال الذكاء الاصطناعي.
ومن الدروس الرئيسية الأخرى أهمية امتلاك آليات الرصد قادر على كشف الوصول غير المعتاد أو الأنماط الغريبة في معالجة المعلومات الحساسة. في كثير من الحالات، كان المسؤولون أنفسهم هم من أدركوا، عند مراجعة التنبيهات والسجلات، أن برنامج Copilot كان يلخص رسائل بريد إلكتروني ما كان ينبغي له الوصول إليها.
من المهم أيضاً أن يكون لديك خطة الاستجابة للحوادث والتي تأخذ في الاعتبار سيناريوهات الذكاء الاصطناعي المحددة: ما يجب فعله إذا قام مساعد بالوصول إلى بيانات لا ينبغي له الوصول إليها، وكيفية إبلاغ المستخدمين المتضررين، وما هي التدابير التقنية والتنظيمية التي يجب تطبيقها للحد من الضرر، وكيفية توثيق ما حدث تحسباً للمتطلبات المحتملة من سلطات حماية البيانات.
وأخيرًا، تؤكد هذه الحلقة على أهمية... تقييم مزودي التكنولوجيا بشكل مستمرحتى أكثرها رسوخاً. يُعد سجل الأمان، والشفافية في إدارة الحوادث، وسرعة التحديثات، عوامل تزداد أهميتها عند اختيار منصة ما، تماماً مثل الميزات أو السعر.
كل ما حدث مع الخلل CW1226324 يوضح أنه، على الرغم من يمكن أن توفر أدوات مثل Copilot قيمة هائلة. في مجالي الإنتاجية والأتمتة، لا يمكن تطبيق الذكاء الاصطناعي بشكل عشوائي. سيتعين على المنظمات الأوروبية، بما فيها الإسبانية، الموازنة بين الحماس للذكاء الاصطناعي و إدارة المخاطر الحكيمةمع إيلاء اهتمام خاص لكيفية حماية رسائل البريد الإلكتروني وغيرها من المعلومات الحساسة التي يتم تداولها عبر أنظمتهم بشكل يومي.