السبت 19 أكتوبر 2024 الموافق لـ 15 ربيع الثاني 1446
Accueil Top Pub
وزير الصحة يؤكد أن الدولة تولي عناية كبيرة للوقاية: القضاء نهائيا على داء الدفتيريا
وزير الصحة يؤكد أن الدولة تولي عناية كبيرة للوقاية: القضاء نهائيا على داء الدفتيريا

أكد وزير الصحة والسكان و إصلاح المستشفيات، عبد الحق سايحي القضاء بصفة نهائية على داء الدفتيريا الذي سجل مؤخرا في بعض المناطق الجنوبية، وجدد التأكيد...

  • 18 أكتوير
اليوم الوطني للهجرة : رئيس الجمهورية يترحم على أرواح الشهداء بقصر المرادية
اليوم الوطني للهجرة : رئيس الجمهورية يترحم على أرواح الشهداء بقصر المرادية

ترحم رئيس الجمهورية، السيد عبد المجيد تبون، اليوم الخميس بقصر المرادية، رفقة كبار المسؤولين والمستشارين في رئاسة الجمهورية، على أرواح الشهداء، وهذا...

  • 17 أكتوير
مشروع قانون المالية: الاقتصاد الوطني سينمو بـ 4.5 بالمائة في 2025
مشروع قانون المالية: الاقتصاد الوطني سينمو بـ 4.5 بالمائة في 2025

من المتوقع أن يحقق الاقتصاد الوطني خلال العام المقبل نموا بنسبة 4,5 بالمائة فيما ينتظر أن يبلغ النمو خارج المحروقات 5 بالمائة، وفق مشروع قانون...

  • 17 أكتوير
رئيس الجمهورية يؤكد بعد استقبال رئيس المجلس الرئاسي الليبي: الحل في ليبيا لن يكون إلا عن طريق الانتخابات
رئيس الجمهورية يؤكد بعد استقبال رئيس المجلس الرئاسي الليبي: الحل في ليبيا لن يكون إلا عن طريق الانتخابات

* المنفي يشكر الرئيس تبون والجزائر على «الدعم الخالص» الذي لا أغراض من ورائه n انعقاد اللقاء الثلاثي قريبا في طرابلسجدد رئيس الجمهورية، السيد عبد...

  • 16 أكتوير

بين التسلية و خطر التلاعب بالهويّات: فيديوهات التزييف العميق تغزو مواقع التواصل

يغزو مواقع التواصل الاجتماعي كم هائل من الفيديوهات المعدّة بتقنية التّزييف العميق، وبين محتويات أنتجت بغرض التسلية وأخرى لغايات مجهولة، بدأ خطر التلاعب بالهويّات وتلفيق تصريحات أو أفعال غير صحيحة لشخصيات عمومية ومستخدمين عاديين للإنترنيت قد يكون للأمر تداعيات سلبية، حسب الأستاذة المساعدة بالمدرسة الوطنية العليا للذكاء الاصطناعي بسيدي عبد الله، الدكتورة حياة سعدي، التي حذرت في حديثها للنصر، من خطر استخدام «الديب الفايك»، قائلة بأن وفرة المعلومات وعدم تأمين الحسابات زاد حجم التزييف، مقدمة طرقا تساعد على التحقق من صحة الفيديو.
«الديب فايك» أو التزييف العميق، تقنيات بالذكاء الاصطناعي أنشأت في الأساس من أجل أغراض إيجابية أو للتسلية بعيدا عن أدية أي كان، إلا أن البعض راح لاستغلالها مؤخرا من أجل التلاعب ونشر المعلومات المضللة بشكل سريع، اعتمادا على برامج استنساخ الأصوات والصور والتلاعب بها من أجل الاحتيال، بما جعلها تأخذ منحى خطيرا وحول العلماء للعمل على ضبط تقنية، أكدوا أن برامجها يصعب كشفها لتفوقها على أجهزة الكشف بدرجة عالية.
«الديب فايك» تقنية أنشأت لمساعدة الأشخاص والترفيه
وتعرف الأستاذة المساعدة بالمدرسة الوطنية العليا للذكاء الاصطناعي بسيدي عبد الله، الدكتورة حياة سعدي، في حديثها للنصر، التزييف العميق على أنه نوع من الوسائط الاصطناعية أو تقنية تعمل على خوارزميات الذكاء الاصطناعي وتقنية تعليم الآلة، بحيث تقوم على تركيب أصوات مزيفة على شخصية معينة من أجل نشر معلومات مغلوطة، موضحة أنها تقنية تحمل الكثير من المخاطر خاصة فيما يتعلق بنشر الأكاذيب وانتهاك خصوصية الأشخاص أو التغطية على الجرائم، بعد أن خرج عن الغاية الأساسية منه لإنتاج محتوى قريب من الحقيقة من أجل أهداف تتعلق بالتسلية.
وتقول الأخصائية للنصر، إنه تقنية تعمل بالمولّد عبر شبكة تعمل على صناعة المحتوى المزيف وفقا لمعلومات تكتسبها أصلا من معلومات يتم تخزينها مسبقا، ليقوم بعملية المعالجة الأولى قبل انتقالها إلى المميّز الذي يمثل شبكة ثانية تقارن المحتوى المزيّف بالمحتوى الحقيقي، بما يعني أن «الديب فايك» قادر على اكتشافه، وأوضحت الدكتورة سعدي أن هذه التقنية اكتشفت سنة 2017 من خلال نشر أول فيديو كان للرئيس الأمريكي آنذاك براك أوباما،
ومن هنا بدأ خطر التزييف العميق، بعد أن أنشأ بأهداف بعيدا عن التسلية كالصناعة الترفيهية كالأفلام والشخصيات التاريخية أو صناعة مشاهد حقيقية، أو الترجمة لتعديل حركة الشفاه، أو استعمالها في التعليم ببعض المدارس أو التدريبات في شكل محاكاة أو استخدامها في الطب، والرسم، والفن والإبداع وحتى ألعاب الفيديو، أين تساعد التقنية على جعل الشخصيات أكثر واقعية وغيرها من المجالات التي تساعد بها التقنية بشكل إيجابي.
وفرة المعلومات وعدم تأمين الحسابات زاد حجم التزييف
أما عن الجزء الأسود للتقنية، فأكدت الأستاذة الجامعية أنه يعد أمرا خطيرا ومؤديا عبر العالم، خاصة بالنسبة للشخصيات العمومية كرؤساء الدول أو المشاهير من الفنانين، في حال تلفيق تهم لهم من خلال نشر تصريحات كاذبة أو غير أخلاقية، بما يشكل جرائم تنسب لهم في حين أنهم لم يقوموا بها من الأساس، أو نشر شائعات أو معلومات خاطئة، وهذا ما أكدت أنه يوصل للتلاعب الاجتماعي والسياسي مثلا بسبب انتخابات أو حملات دعائية وغالبا ما يكون هؤلاء الأشخاص أهدافا سهلة للمتلاعبين، بما يفقد الثقة بينهم وبين الجمهور أو الشعب.
واعتبرت المختصة الاعتماد على هذه الخوارزميات للتضليل مجرد تلاعب على القانون والأمن وكذا الأخلاقيات، مشيرة في ذلك إلى وصول التزييف حتى للأشخاص العاديين بعد أن طال شخصيات عمومية، محذرة من خطر استعمال ذلك خاصة في الأمور غير الأخلاقية بالنسبة للأشخاص الذين نشروا صورا كثيرة لهم، معتبرة أن التطور الهائل للتكنولوجيا و الخوارزميات جعلت الأفراد تأخروا عنها، وأن الكثيرين لا يعون حجم الخطر الناتج عنها، و تنصح بأهمية حماية الأشخاص لأنفسهم وعدم الثقة في الشبكة العنكبوتية  حتى بالنسبة للمستخدمين العاديين، في انتظار التوصل إلى صيغة قانونية دولية تحمي مستخدمي الإنترنيت الذي يعد اليوم وأكثر من أي وقت مضى سلاح ذو حدين.
هكذا يمكن اكتشاف «الديب فايك»
وللتأكد من صحة الفيديو من عدمه، توصي الدكتورة سعدي بالتأكد من مصدره بالدرجة الأولى، مشددة على ضرورة التبليغ عن المعلومة المضللة في حال الشك فيها، و بذلك يحمي المستخدم نفسه كما يحمي المجتمع المحيط به، و بذلك يساعد على التقليل من المحتويات المزيفة، أما عن الطرق البسيطة للتفريق بين الصواب والمزيف، أكدت أن تعابير الوجه تشكل نقطة فاصلة  يمكن جدا أن تكشف الحقيقة، أيضا العينين، وحواف الصورة، نبرة الصوت، كما يمكن استعمال التقنية في حد ذاتها للتمييز، بينما يبقى الحذر و الحرص في نشر المعلومات والصور الشخصية أفضل من إثبات الحقيقة بعد وقوع الخطر، حتى بالنسبة لمستخدمي الإنترنيت العاديين الذين يقعون اليوم هم أيضا تحت خطر من يعملون لنشر مثل هذه الفيديوهات.
إيمان زياري

Articles Bottom Pub
جريدة النصر الإلكترونية

تأسست جريدة "النصر" في 27 نوفمبر 1908م ، وأممت في 18 سبتمبر 1963م. 
عربت جزئيا في 5 يوليو 1971م (صفحتان)، ثم تعربت كليًا في 1 يناير 1972م. كانت النصر تمتلك مطبعة منذ 1928م حتى 1990م. أصبحت جريدة يومية توزع وتطبع في جميع أنحاء الوطن، من الشرق إلى الغرب ومن الشمال إلى الجنوب.

عن النصر  اتصل بنا 

 

اتصل بنا

المنطقة الصناعية "بالما" 24 فيفري 1956
قسنطينة - الجزائر
قسم التحرير
قسم الإشهار
(+213) (0) 31 60 70 78 (+213) (0) 31 60 70 82
(+213) (0) 31 60 70 77 (+213) (0) 6 60 37 60 00
annasr.journal@gmail.com pub@annasronline.com