كشفت شركة ميتا عن أداة جديدة تسمى “ختم الفيديو التعريفي“يهدف إلى وضع علامات مائية غير مرئية على مقاطع الفيديو التي ينتجها الذكاء الاصطناعي.
وتأتي هذه الخطوة في وقت ينمو فيه سوق مقاطع الفيديو المولدة بالذكاء الاصطناعي بشكل سريع، مما يجعل من الصعب التمييز بين مقاطع الفيديو الحقيقية وتلك التي تنتجها التقنيات الحديثة.
وتتميز أداة “Video Seal” التابعة لشركة Meta بقدرتها على إدراج علامة مائية غير مرئية في الفيديو دون التأثير على مظهره، بحسب Meta، كما يمكنها إضافة رسائل مخفية إلى مقاطع الفيديو التي تساعد لاحقا في تتبع مصدرها.
تتفوق هذه الأداة في قدرتها على مقاومة التعديلات الشائعة مثل التمويه أو الاقتصاص أو الضغط لتسهيل المشاركة عبر الإنترنت. وهذا يعني أن العلامة المائية ستبقى في مكانها حتى لو تم تعديل الفيديو، مما يساهم في التحقق من مصدره وصحته.
تجعل Meta الأداة متاحة بموجب ترخيص مرن، بالإضافة إلى توفير… ورقة بحثية بالإضافة إلى كود التدريب والاستخدام الخاص به عرض تفاعلي يمكن للجميع تجربتها.
وقال ميتا في بيان رسمي: “تساهم أدوات الذكاء الاصطناعي في تقريب العالم من بعضه البعض، لكن من الضروري وضع ضوابط لتقليل مخاطر التزوير والتلاعب وسوء الاستخدام التي قد تقوض الفوائد المرجوة. “تعد العلامة المائية خطوة مهمة نحو تعزيز إمكانية تتبع المحتوى ونماذج الذكاء الاصطناعي.”
وتهدف ميتا من خلال هذه التقنية إلى تقليل فرص استغلال الذكاء الاصطناعي لنشر محتوى ومعلومات كاذبة.
يقدم الذكاء الاصطناعي قدرات مذهلة تجعل حياة الجميع أسهل، لكن الحاجة إلى وضع ضوابط لضمان دقة المعلومات المتاحة للجميع أمر بالغ الأهمية، خاصة بالنسبة لشركة ميتا، التي تمتلك منصة التواصل الاجتماعي الأكثر انتشارا في العالم.
ويشهد الإنترنت حاليا طفرة في انتشار المحتوى المزيف باستخدام الذكاء الاصطناعي التوليدي، حيث أصبحت تقنية التزييف العميق أكثر شعبية من أي وقت مضى. وفقًا لمنصة التحقق من الهوية Sumsub، زاد عدد مقاطع الفيديو المزيفة عالميًا بمقدار أربعة أضعاف بين عامي 2023 و2024.
شكلت مقاطع الفيديو المزيفة خلال عام 2024 نحو 7% من إجمالي عمليات الاحتيال على مستوى العالم، وشملت هذه العمليات انتحال الشخصية والاستيلاء على الحسابات وتنفيذ عمليات الهندسة الاجتماعية المتقدمة، مما يسلط الضوء على خطورة هذه التقنية في تسهيل الجرائم الرقمية، ويوضح وأهمية تطوير الأدوات والتقنيات اللازمة لمكافحة هذا النوع من الاحتيال الرقمي.
كشفت شركة ميتا عن أداة جديدة تسمى “ختم الفيديو التعريفي“يهدف إلى وضع علامات مائية غير مرئية على مقاطع الفيديو التي ينتجها الذكاء الاصطناعي.
وتأتي هذه الخطوة في وقت ينمو فيه سوق مقاطع الفيديو المولدة بالذكاء الاصطناعي بشكل سريع، مما يجعل من الصعب التمييز بين مقاطع الفيديو الحقيقية وتلك التي تنتجها التقنيات الحديثة.
وتتميز أداة “Video Seal” التابعة لشركة Meta بقدرتها على إدراج علامة مائية غير مرئية في الفيديو دون التأثير على مظهره، بحسب Meta، كما يمكنها إضافة رسائل مخفية إلى مقاطع الفيديو التي تساعد لاحقا في تتبع مصدرها.
تتفوق هذه الأداة في قدرتها على مقاومة التعديلات الشائعة مثل التمويه أو الاقتصاص أو الضغط لتسهيل المشاركة عبر الإنترنت. وهذا يعني أن العلامة المائية ستبقى في مكانها حتى لو تم تعديل الفيديو، مما يساهم في التحقق من مصدره وصحته.
تجعل Meta الأداة متاحة بموجب ترخيص مرن، بالإضافة إلى توفير… ورقة بحثية بالإضافة إلى كود التدريب والاستخدام الخاص به عرض تفاعلي يمكن للجميع تجربتها.
وقال ميتا في بيان رسمي: “تساهم أدوات الذكاء الاصطناعي في تقريب العالم من بعضه البعض، لكن من الضروري وضع ضوابط لتقليل مخاطر التزوير والتلاعب وسوء الاستخدام التي قد تقوض الفوائد المرجوة. “تعد العلامة المائية خطوة مهمة نحو تعزيز إمكانية تتبع المحتوى ونماذج الذكاء الاصطناعي.”
وتهدف ميتا من خلال هذه التقنية إلى تقليل فرص استغلال الذكاء الاصطناعي لنشر محتوى ومعلومات كاذبة.
يقدم الذكاء الاصطناعي قدرات مذهلة تجعل حياة الجميع أسهل، لكن الحاجة إلى وضع ضوابط لضمان دقة المعلومات المتاحة للجميع أمر بالغ الأهمية، خاصة بالنسبة لشركة ميتا، التي تمتلك منصة التواصل الاجتماعي الأكثر انتشارا في العالم.
ويشهد الإنترنت حاليا طفرة في انتشار المحتوى المزيف باستخدام الذكاء الاصطناعي التوليدي، حيث أصبحت تقنية التزييف العميق أكثر شعبية من أي وقت مضى. وفقًا لمنصة التحقق من الهوية Sumsub، زاد عدد مقاطع الفيديو المزيفة عالميًا بمقدار أربعة أضعاف بين عامي 2023 و2024.
شكلت مقاطع الفيديو المزيفة خلال عام 2024 نحو 7% من إجمالي عمليات الاحتيال على مستوى العالم، وشملت هذه العمليات انتحال الشخصية والاستيلاء على الحسابات وتنفيذ عمليات الهندسة الاجتماعية المتقدمة، مما يسلط الضوء على خطورة هذه التقنية في تسهيل الجرائم الرقمية، ويوضح وأهمية تطوير الأدوات والتقنيات اللازمة لمكافحة هذا النوع من الاحتيال الرقمي.