تخيل أنك تتلقى مكالمة هاتفية عاجلة من حفيدك، وصوته يرتجف وهو يخبرك أنه تعرض لحادث مروع ويحتاج إلى مبلغ كبير من المال على الفور لدفع الكفالة. يسيطر عليك الذعر، وتتحرك بسرعة لإنقاذه. هذا السيناريو ليس مجرد قصة خيالية، بل حقيقة حدثت لجين، وهي مواطنة كبيرة في السن عمرها 75 سنة ومن ريجينا بكندا، تحت وطأة الصدمة والقلق، هرعت إلى البنك لسحب المبلغ المطلوب، لتكتشف لاحقا أنها وقعت ضحية لعملية احتيال متقنة استغلت الذكاء الاصطناعي لتقليد صوت حفيدها.
وتشير التوقعات إلى أن الذكاء الاصطناعي التوليدي سوف يصبح آلياً حوالي 70% العمليات التجارية العالمية بحلول عام 2030، مما يفتح آفاقًا جديدة للإنتاجية والكفاءة، ويطلق شرارة تحول كبير. حماسة القادة في مختلف القطاعاتإنهم يتصورون إمكانيات لا حصر لها لتطوير أعمالهم.
ولكن في الوقت نفسه، يلوح في الأفق جانب مظلم آخر من الذكاء الاصطناعي التوليدي: قدرته على التلاعب بالبشر. ومع تطور قدرتها على توليد محتوى صوتي ومرئي مقنع يبدو واقعياً للغاية، يخشى الخبراء من استغلال هذه التكنولوجيا لخداع الناس.
لكن إلى أي مدى وصلت تهديدات التزييف العميق، وما دور الذكاء العاطفي في مواجهة هذه التهديدات؟
تعد التزييف العميق مشكلة متنامية:
لا تقتصر قصة جين على حالتها الفردية، ولكنها جزء من اتجاه متزايد لعمليات الاحتيال التي تستغل المشاعر الإنسانية. ويشكل الاحتيال العاطفي الرقمي، المدعوم بتقنيات الذكاء الاصطناعي المتطورة مثل التزييف العميق، تهديدًا متزايدًا للأفراد والشركات أيضًا.
وتشير الدراسات الحديثة إلى ذلك واحد من كل 10 مديرين تنفيذيين ويقولون إن شركاتهم واجهت بالفعل تهديدات التزييف العميق مؤخرًا، وما يثير القلق هو أن 25% من القادة ما زالوا غير مدركين لخطورة هذه التهديدات المتزايدة. ومن خلال استهداف المديرين التنفيذيين بتقنيات تقليد الصوت والصورة والفيديو الواقعية، يستطيع المحتالون الاستيلاء على معلومات حساسة وسرقة الأموال وتوجيه عملية صنع القرار، مما يعرض الشركة لخسائر مالية كبيرة وتشويه سمعتها.
التحدي المتمثل في اكتشاف المحتوى المزيف الناتج عن الذكاء الاصطناعي:
يعد اكتشاف المحتوى المزيف الناتج عن الذكاء الاصطناعي بمثابة لغز. هناك العديد من الأدوات التي تدعي أنها قادرة على اكتشاف هذا النوع من المحتوى، لكن دقتها لا تزال محدودة. وفي الوقت نفسه، تتطور تقنيات معالجة المحتوى باستمرار، وظهرت أدوات جديدة قادرة على… إزالة العلامات المائيةمما يدل على أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.
في حين أن هناك أدوات واعدة مثل FakeCatcher من إنتل، ولكن تطبيقه على نطاق واسع لا يزال يواجه تحديات كبيرة. ومع التطور السريع لتقنيات الذكاء الاصطناعي التوليدي، تظل الشك البشري هو الحصن الأخير لحماية أنفسنا من المحتوى المزيف.
دور الذكاء العاطفي في مواجهة تهديدات الذكاء الاصطناعي التوليدي:
الذكاء العاطفي؛ هو القدرة على فهم مشاعرك الخاصة ومشاعر الآخرين، وإدارتها وتوجيهها بفعالية، ويتضمن الذكاء العاطفي مجموعة من المهارات وهذا يساعدنا على التواصل بشكل أفضل، وبناء علاقات قوية، والتغلب على التحديات، وتحقيق أهدافنا.
ولذلك يبرز دور الذكاء العاطفي كأحد أهم الأدوات التي يمكن للأفراد والشركات الاعتماد عليها لمواجهة التهديدات المتزايدة للذكاء الاصطناعي التوليدي. فيما يلي 3 طرق يمكننا المساعدة بها:
1- كشف التلاعب العاطفي:
تشير الإحصائيات إلى ذلك 74% من خروقات البيانات بسبب الأخطاء البشرية الناجمة عن العواطف، مثل الإلحاح أو الثقة المفرطة، يستغل المهاجمون نقاط الضعف البشرية هذه من خلال استهداف المشاعر الإنسانية الأساسية، مثل الخوف والجشع والفضول.
لقد سهّل الذكاء الاصطناعي الأمر على مجرمي الإنترنت، حيث ساعدهم بشكل كبير على تخصيص عمليات الاحتيال. ومن خلال جمع بيانات الموظفين وتحليلها بالإضافة إلى تحليل محتوى الشركة، يمكنهم الآن إنشاء فيديو مزيف لأي شخص. في أقل من ثماني دقائق وبكميات صغيرة! ولهذا السبب، فإن الخطوة الأولى لحماية أنفسنا هي زيادة الوعي بهذه التهديدات.
يحتاج الموظفون إلى فهم كيف يمكن للذكاء الاصطناعي الاستفادة من العواطف لتجاوز القرارات العقلانية. أظهرت لنا تجربة أحد مديري الأمن السيبراني كيف يمكن للمحتالين استغلال عواطفنا للتأثير على قراراتنا. تلقى رسالة وهمية على تطبيق WhatsApp وتسجيلًا صوتيًا من محتال يتظاهر بأنه الرئيس التنفيذي للشركة، ويناقش التفاصيل المشروعة حول صفقة تجارية عاجلة.
في البداية، قد يؤدي الضغط العاطفي من سلطة أعلى إلى رد فعل المحتال بسرعة أكبر من الرد، ولكن بفضل معرفته بأنظمة الشركة وإجراءاتها الروتينية، تمكن من اكتشاف عملية الاحتيال. ولاحظ بعض المؤشرات المشبوهة التي تتعارض مع الإجراءات الرسمية للشركة، مثل استخدام قنوات غير رسمية لنقل معلومات حساسة، مما أثار الشكوك حول شرعية الطلب.
للحماية من التلاعب، يجب على القادة الاستثمار في تدريب موظفيهم لتطوير ذكائهم العاطفي. ومن خلال ورش العمل التي تركز على فهم الدوافع العاطفية وتدريبهم على التفكير الإبداعي، يستطيع الموظفون اكتشاف محاولات التلاعب بسرعة واتخاذ قرارات أكثر استنارة، مما يساهم في حماية الشركات من المخاطر.
2- التحليل النقدي للقرارات:
لا يكفي أن نفهم أن عواطفنا تؤثر على قراراتنا؛ يجب علينا استكشاف بالضبط كيف يحدث هذا. غالبًا ما يدفعنا الإثارة أو الفضول إلى اتخاذ قرارات متسرعة دون تقييم العواقب بشكل كامل. ويصبح هذا أكثر خطورة في عصر الذكاء الاصطناعي، لأنه يمكن أن يؤدي إلى أخطاء جسيمة.
وهذا مهم حادثة نشر مجلة ألمانية مقابلة مدعومة بالذكاء الاصطناعي مع مايكل شوماخر – بطل العالم سبع مرات في الفورمولا 1 والذي تعرض لإصابات خطيرة في الرأس في حادث تزلج في ديسمبر 2013 ولم يظهر علنًا منذ ذلك الحين – دون موافقته هي مثال على غياب التفكير النقدي . وتضمنت المقابلة اقتباسات مزيفة تناقش حالته الطبية وحياته العائلية منذ عام 2013.
أدت الرغبة في تحقيق الأخبار الحصرية إلى تجاهل الصحفيين للعواقب الأخلاقية والقانونية لتصرفاتهم، مما يعرضهم للمساءلة القانونية والإضرار بسمعة المجلة.
في هذه الحالة، سيكون التفكير النقدي أداة قوية لبناء الوعي الأخلاقي. ومن خلال تبادل الأفكار والآراء، يمكن للأفراد اكتساب وجهات نظر جديدة وتحدي افتراضاتهم.
تعتبر الطريقة (يطير على الحائط) هي تقنية فعالة لتشجيع التفكير النقدي. في هذه الطريقة، يقوم الشخص بعرض مخرجات الذكاء الاصطناعي على المجموعة، ومن ثم يطلب من الأعضاء تحليلها وتقييمها من منظور أخلاقي. وتتيح هذه التقنية للأفراد التعرف على التحيزات والافتراضات الكامنة في الذكاء الاصطناعي، وتقييم مدى ملاءمتها للقيم والمبادئ الأخلاقية.
3- تحويل ردود الفعل السريعة إلى ردود مدروسة:
إن الوعي بالمخاطر التي يشكلها الذكاء الاصطناعي هو الخطوة الأولى، ولكن تحويل هذا الوعي إلى عمل ملموس هو ما يضمن حمايتنا. حتى مع أفضل النوايا، يمكن لسحر الذكاء الاصطناعي أن يتجاوز حكمنا الجيد ويقودنا إلى اتخاذ قرارات قد نندم عليها لاحقًا.
وهنا سيكون الحل هو منح الموظفين سلطة اتخاذ قرارات مستنيرة، وتشجيعهم على التعبير عن الشكوك والترددات، حتى لو بدت بسيطة. ولتحقيق ذلك، يجب على قادة الشركة تشجيع ثقافة الحوار المفتوح في مكان العمل، بحيث يشعر الموظفون بالأمان للتعبير عن آرائهم ومخاوفهم دون خوف من العقاب. . عندما يكون الحوار صريحاً وبناءً، يمكننا اكتشاف الثغرات في الخطط وتجنب الوقوع في الفخاخ.
وتبين لنا قصة مدير تنفيذي لشركة فيراريكيف يمكن لشك صغير أن يكشف عن عملية احتيال كبرى؟ تلقى هذا المسؤول مكالمة هاتفية من شخص ادعى أنه بينيديتو فيجنا، الرئيس التنفيذي للشركة. بدأ الحديث بشكل طبيعي، لكنه سرعان ما تحول إلى طلبات حساسة تتطلب السرية التامة، وهنا أصبح المسؤول التنفيذي مشبوهاً. ومن أجل ذلك، طرح سؤالاً محددًا للغاية لا يستطيع الإجابة عليه سوى الرئيس التنفيذي. وانقطع الاتصال فجأة، مما كشف عن محاولة احتيال دفعت الشركة إلى فتح تحقيق في الأمر.
في الوقت الحاضر، نشهد زيادة في التشابك العاطفي مع التكنولوجيا. ننسى أحيانًا أن الذكاء الاصطناعي مجرد أداة، وليس إنسانًا. ولكن من خلال إضفاء الصفات الإنسانية على التكنولوجيا، نصبح أكثر عرضة للتأثير والتلاعب. كوننا بشرًا يعني أننا نشعر ونتعلق عاطفيًا بالأشياء من حولنا، لكن هذا لا يعني أننا غير قادرين على التحكم في عواطفنا. يمكننا تدريب أنفسنا على التفكير النقدي واتخاذ قرارات مستنيرة، حتى في المواقف المشحونة عاطفياً.
تخيل أنك تتلقى مكالمة هاتفية عاجلة من حفيدك، وصوته يرتجف وهو يخبرك أنه تعرض لحادث مروع ويحتاج إلى مبلغ كبير من المال على الفور لدفع الكفالة. يسيطر عليك الذعر، وتتحرك بسرعة لإنقاذه. هذا السيناريو ليس مجرد قصة خيالية، بل حقيقة حدثت لجين، وهي مواطنة كبيرة في السن عمرها 75 سنة ومن ريجينا بكندا، تحت وطأة الصدمة والقلق، هرعت إلى البنك لسحب المبلغ المطلوب، لتكتشف لاحقا أنها وقعت ضحية لعملية احتيال متقنة استغلت الذكاء الاصطناعي لتقليد صوت حفيدها.
وتشير التوقعات إلى أن الذكاء الاصطناعي التوليدي سوف يصبح آلياً حوالي 70% العمليات التجارية العالمية بحلول عام 2030، مما يفتح آفاقًا جديدة للإنتاجية والكفاءة، ويطلق شرارة تحول كبير. حماسة القادة في مختلف القطاعاتإنهم يتصورون إمكانيات لا حصر لها لتطوير أعمالهم.
ولكن في الوقت نفسه، يلوح في الأفق جانب مظلم آخر من الذكاء الاصطناعي التوليدي: قدرته على التلاعب بالبشر. ومع تطور قدرتها على توليد محتوى صوتي ومرئي مقنع يبدو واقعياً للغاية، يخشى الخبراء من استغلال هذه التكنولوجيا لخداع الناس.
لكن إلى أي مدى وصلت تهديدات التزييف العميق، وما دور الذكاء العاطفي في مواجهة هذه التهديدات؟
تعد التزييف العميق مشكلة متنامية:
لا تقتصر قصة جين على حالتها الفردية، ولكنها جزء من اتجاه متزايد لعمليات الاحتيال التي تستغل المشاعر الإنسانية. ويشكل الاحتيال العاطفي الرقمي، المدعوم بتقنيات الذكاء الاصطناعي المتطورة مثل التزييف العميق، تهديدًا متزايدًا للأفراد والشركات أيضًا.
وتشير الدراسات الحديثة إلى ذلك واحد من كل 10 مديرين تنفيذيين ويقولون إن شركاتهم واجهت بالفعل تهديدات التزييف العميق مؤخرًا، وما يثير القلق هو أن 25% من القادة ما زالوا غير مدركين لخطورة هذه التهديدات المتزايدة. ومن خلال استهداف المديرين التنفيذيين بتقنيات تقليد الصوت والصورة والفيديو الواقعية، يستطيع المحتالون الاستيلاء على معلومات حساسة وسرقة الأموال وتوجيه عملية صنع القرار، مما يعرض الشركة لخسائر مالية كبيرة وتشويه سمعتها.
التحدي المتمثل في اكتشاف المحتوى المزيف الناتج عن الذكاء الاصطناعي:
يعد اكتشاف المحتوى المزيف الناتج عن الذكاء الاصطناعي بمثابة لغز. هناك العديد من الأدوات التي تدعي أنها قادرة على اكتشاف هذا النوع من المحتوى، لكن دقتها لا تزال محدودة. وفي الوقت نفسه، تتطور تقنيات معالجة المحتوى باستمرار، وظهرت أدوات جديدة قادرة على… إزالة العلامات المائيةمما يدل على أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.
في حين أن هناك أدوات واعدة مثل FakeCatcher من إنتل، ولكن تطبيقه على نطاق واسع لا يزال يواجه تحديات كبيرة. ومع التطور السريع لتقنيات الذكاء الاصطناعي التوليدي، تظل الشك البشري هو الحصن الأخير لحماية أنفسنا من المحتوى المزيف.
دور الذكاء العاطفي في مواجهة تهديدات الذكاء الاصطناعي التوليدي:
الذكاء العاطفي؛ هو القدرة على فهم مشاعرك الخاصة ومشاعر الآخرين، وإدارتها وتوجيهها بفعالية، ويتضمن الذكاء العاطفي مجموعة من المهارات وهذا يساعدنا على التواصل بشكل أفضل، وبناء علاقات قوية، والتغلب على التحديات، وتحقيق أهدافنا.
ولذلك يبرز دور الذكاء العاطفي كأحد أهم الأدوات التي يمكن للأفراد والشركات الاعتماد عليها لمواجهة التهديدات المتزايدة للذكاء الاصطناعي التوليدي. فيما يلي 3 طرق يمكننا المساعدة بها:
1- كشف التلاعب العاطفي:
تشير الإحصائيات إلى ذلك 74% من خروقات البيانات بسبب الأخطاء البشرية الناجمة عن العواطف، مثل الإلحاح أو الثقة المفرطة، يستغل المهاجمون نقاط الضعف البشرية هذه من خلال استهداف المشاعر الإنسانية الأساسية، مثل الخوف والجشع والفضول.
لقد سهّل الذكاء الاصطناعي الأمر على مجرمي الإنترنت، حيث ساعدهم بشكل كبير على تخصيص عمليات الاحتيال. ومن خلال جمع بيانات الموظفين وتحليلها بالإضافة إلى تحليل محتوى الشركة، يمكنهم الآن إنشاء فيديو مزيف لأي شخص. في أقل من ثماني دقائق وبكميات صغيرة! ولهذا السبب، فإن الخطوة الأولى لحماية أنفسنا هي زيادة الوعي بهذه التهديدات.
يحتاج الموظفون إلى فهم كيف يمكن للذكاء الاصطناعي الاستفادة من العواطف لتجاوز القرارات العقلانية. أظهرت لنا تجربة أحد مديري الأمن السيبراني كيف يمكن للمحتالين استغلال عواطفنا للتأثير على قراراتنا. تلقى رسالة وهمية على تطبيق WhatsApp وتسجيلًا صوتيًا من محتال يتظاهر بأنه الرئيس التنفيذي للشركة، ويناقش التفاصيل المشروعة حول صفقة تجارية عاجلة.
في البداية، قد يؤدي الضغط العاطفي من سلطة أعلى إلى رد فعل المحتال بسرعة أكبر من الرد، ولكن بفضل معرفته بأنظمة الشركة وإجراءاتها الروتينية، تمكن من اكتشاف عملية الاحتيال. ولاحظ بعض المؤشرات المشبوهة التي تتعارض مع الإجراءات الرسمية للشركة، مثل استخدام قنوات غير رسمية لنقل معلومات حساسة، مما أثار الشكوك حول شرعية الطلب.
للحماية من التلاعب، يجب على القادة الاستثمار في تدريب موظفيهم لتطوير ذكائهم العاطفي. ومن خلال ورش العمل التي تركز على فهم الدوافع العاطفية وتدريبهم على التفكير الإبداعي، يستطيع الموظفون اكتشاف محاولات التلاعب بسرعة واتخاذ قرارات أكثر استنارة، مما يساهم في حماية الشركات من المخاطر.
2- التحليل النقدي للقرارات:
لا يكفي أن نفهم أن عواطفنا تؤثر على قراراتنا؛ يجب علينا استكشاف بالضبط كيف يحدث هذا. غالبًا ما يدفعنا الإثارة أو الفضول إلى اتخاذ قرارات متسرعة دون تقييم العواقب بشكل كامل. ويصبح هذا أكثر خطورة في عصر الذكاء الاصطناعي، لأنه يمكن أن يؤدي إلى أخطاء جسيمة.
وهذا مهم حادثة نشر مجلة ألمانية مقابلة مدعومة بالذكاء الاصطناعي مع مايكل شوماخر – بطل العالم سبع مرات في الفورمولا 1 والذي تعرض لإصابات خطيرة في الرأس في حادث تزلج في ديسمبر 2013 ولم يظهر علنًا منذ ذلك الحين – دون موافقته هي مثال على غياب التفكير النقدي . وتضمنت المقابلة اقتباسات مزيفة تناقش حالته الطبية وحياته العائلية منذ عام 2013.
أدت الرغبة في تحقيق الأخبار الحصرية إلى تجاهل الصحفيين للعواقب الأخلاقية والقانونية لتصرفاتهم، مما يعرضهم للمساءلة القانونية والإضرار بسمعة المجلة.
في هذه الحالة، سيكون التفكير النقدي أداة قوية لبناء الوعي الأخلاقي. ومن خلال تبادل الأفكار والآراء، يمكن للأفراد اكتساب وجهات نظر جديدة وتحدي افتراضاتهم.
تعتبر الطريقة (يطير على الحائط) هي تقنية فعالة لتشجيع التفكير النقدي. في هذه الطريقة، يقوم الشخص بعرض مخرجات الذكاء الاصطناعي على المجموعة، ومن ثم يطلب من الأعضاء تحليلها وتقييمها من منظور أخلاقي. وتتيح هذه التقنية للأفراد التعرف على التحيزات والافتراضات الكامنة في الذكاء الاصطناعي، وتقييم مدى ملاءمتها للقيم والمبادئ الأخلاقية.
3- تحويل ردود الفعل السريعة إلى ردود مدروسة:
إن الوعي بالمخاطر التي يشكلها الذكاء الاصطناعي هو الخطوة الأولى، ولكن تحويل هذا الوعي إلى عمل ملموس هو ما يضمن حمايتنا. حتى مع أفضل النوايا، يمكن لسحر الذكاء الاصطناعي أن يتجاوز حكمنا الجيد ويقودنا إلى اتخاذ قرارات قد نندم عليها لاحقًا.
وهنا سيكون الحل هو منح الموظفين سلطة اتخاذ قرارات مستنيرة، وتشجيعهم على التعبير عن الشكوك والترددات، حتى لو بدت بسيطة. ولتحقيق ذلك، يجب على قادة الشركة تشجيع ثقافة الحوار المفتوح في مكان العمل، بحيث يشعر الموظفون بالأمان للتعبير عن آرائهم ومخاوفهم دون خوف من العقاب. . عندما يكون الحوار صريحاً وبناءً، يمكننا اكتشاف الثغرات في الخطط وتجنب الوقوع في الفخاخ.
وتبين لنا قصة مدير تنفيذي لشركة فيراريكيف يمكن لشك صغير أن يكشف عن عملية احتيال كبرى؟ تلقى هذا المسؤول مكالمة هاتفية من شخص ادعى أنه بينيديتو فيجنا، الرئيس التنفيذي للشركة. بدأ الحديث بشكل طبيعي، لكنه سرعان ما تحول إلى طلبات حساسة تتطلب السرية التامة، وهنا أصبح المسؤول التنفيذي مشبوهاً. ومن أجل ذلك، طرح سؤالاً محددًا للغاية لا يستطيع الإجابة عليه سوى الرئيس التنفيذي. وانقطع الاتصال فجأة، مما كشف عن محاولة احتيال دفعت الشركة إلى فتح تحقيق في الأمر.
في الوقت الحاضر، نشهد زيادة في التشابك العاطفي مع التكنولوجيا. ننسى أحيانًا أن الذكاء الاصطناعي مجرد أداة، وليس إنسانًا. ولكن من خلال إضفاء الصفات الإنسانية على التكنولوجيا، نصبح أكثر عرضة للتأثير والتلاعب. كوننا بشرًا يعني أننا نشعر ونتعلق عاطفيًا بالأشياء من حولنا، لكن هذا لا يعني أننا غير قادرين على التحكم في عواطفنا. يمكننا تدريب أنفسنا على التفكير النقدي واتخاذ قرارات مستنيرة، حتى في المواقف المشحونة عاطفياً.