اليوم الأول 4 يونيو ، 2024
live-img
AR 14:15 - 14:30

متحدث ملهم- سام غريغوري: استعدّ، لا داعي للذعر: كيف نضمن استجابة شاملة عالميًّا لتقنيّات الذكاء الاصطناعيّ الخادعة، بما في ذلك التزييف العميق والوسائط الاصطناعيّة

بصفته المدير التنفيذيّ لـمنظّمة WITNESS التي تدعم المدافعين عن حقوق الإنسان والصحفيّين المدنيّين في جميع أنحاء العالم بواسطة استخدام الفيديو والتكنولوجيا، يعمل سام منذ سنوات لضمان استخدام التقدّم التكنولوجيّ للخير، وليس للشر. مع أخذ الوتيرة السريعة لتطوّرات تقنيّات الذكاء الاصطناعيّ بعين الاعتبار، سيقدّم سام رأيه – الذي يرتكز على مبادرة WITNESS المستمرّة "استعد، لا داعي للذعر" – حول الذكاء الاصطناعيّ الخادع والتزييف العميق، وحول الخطوات الحارقة اللازمة "لتحصين الحقيقة" والتأكّد من أنّ هذه التقنيّات تعكس احتياجات واستخدامات ومطالب مجتمعات حقوق الإنسان العالميّة، ولا تُستخدم للخداع، وزرع البلبلة أو إلحاق الأذى.

 

live-img
14:30 - 14:45

عرض- مسرح عشتار، مونولوجات غزّة

"مونولوجات غزّة" هي شهادات حيّة كتبها أطفال مسرح عشتار في قطاع غزّة في العام 2010، بعد الحرب الأولى على قطاع غزّة، ومن المؤسف أنّ هذه المونولوجات لا تزال دقيقة حتّى يومنا هذا. تسلّط المونولوجات الضوء على أهوال وآمال وصمود أهلنا الشجعان في القطاع أمام حرب الإبادة.  "مونولوجات غزّة" هو مشروع يبرز أصوات الأطفال في غزّة وينقله إلى مسارح وفضاءات العالم الرحبة من أجل توعية الجمهور وخلق تضامن فعّال مع قضيّتنا. 

 

live-img
EN 14:45 - 15:00

قطاع الاتصالات الفلسطينيّ: بين الحرب والدمار والابتكار والذكاء الاصطناعيّ- حوار مع وزير الاتصالات والاقتصاد الرقميّ

انضموا إلى جلسة حوار مع معالي وزير الاتصالات والاقتصاد الرقمي، الوزير عبد الرزاق النتشة، حول الذكاء الاصطناعي وتطوير قطاع الاتصالات في فلسطين. ستتطرق الجلسة إلى الوضع في قطاع غزة المنكوب، بما في ذلك رؤية الوزارة لإعادة بناء البنية التحتية للاتصالات بعد الحرب المدمرة في القطاع. سيتم استعراض تحديات تطوير القطاع التكنولوجي والبحث في أثر الذكاء الاصطناعي على الاقتصاد المحلي. الوزير عبد الرازق النتشة خبير في مجالي الذكاء الاصطناعي والتحول الرقمي، يحمل دكتوراه في الهندسة الحاسوبية من جامعة مانشستر متروبوليتان، وقد شغل منصب أستاذ في جامعة النجاح الوطنية. ويتميز بخبرته التي تزيد عن 15 عامًا في تطوير منتجات البيانات والتحول الرقمي، وقاد عدة مشاريع دولية ووطنية في هذا المجال.

 

live-img
15:00 - 16:00

الذكاء الاصطناعيّ وقت الحرب: غزّة، والحرب الآليّة التلقائيّة، والمراقبة، ومعركة السرديّات

ستناقش هذه الجلسة كيف تمّ تسليح الذكاء الاصطناعيّ ضدّ الشعب الفلسطينيّ في سياق الحرب والاحتلال. سنستكشف خلال الجلسة كيف يتمّ استخدام الذكاء الاصطناعيّ في السياقات العسكريّة والمراقبة، مثل استخدام نظام توليد الأهداف "هَبسورا" (The Gospel) خلال الحرب على غزّة، واستخدام تقنيّات الذكاء الاصطناعيّ للتعرف على الوجوه في جميع أنحاء المناطق الفلسطينية المحتلّة. سنستكشف أيضًا مخاطر الإشراف الآلي على المحتوى، وأدوات التوليد، والتحيّزات المصمّمة في بيانات الأنظمة التي غالبًا ما تؤدّي إلى ممارسات تميّيزيّة، وإلى تجريد الإنسانيّة، وفهم خاطئ لما يحدث في فلسطين وإسرائيل.

live-img
AR 16:15 - 17:15

الجلسة الثانية. الذكاء الاصطناعيّ التوليديّ: التجريد من الإنسانيّة والتحيّز ضد الفلسطينيّين والمجتمعات المهمّشة

ستدقّق هذه الجلسة في منصّات الذكاء الاصطناعيّ التوليديّ، وستستعرض المشاكل الأخلاقيّة والمخاطر المحتملة، لا سيّما عندما يتعلّق الأمر بتعزيز الذكاء الاصطناعيّ للصور النمطيّة السلبيّة. سيستعرض المتحدّثون كيف أحدثت أدوات الذكاء الاصطناعيّ التوليديّ ضررًا من خلال التطبيق غير المسؤول بالشعب الفلسطينيّ والمجتمعات المهمّشة الأخرى. بسبب حدوث هذا الضرر الواسع النطاق بالفعل، ستناقش هذه الجلسة أيضًا كيف يمكن أن تساعدنا تكتيكات الذكاء الاصطناعيّ الأخلاقيّة والقابلة للتفسير في تجنّب هذا الضرر في المستقبل.

 

live-img
AR 17:15 - 17:30

القمع التكنولوجيّ المتفاقم: كيف يمكن للعمّال والطلّاب الجامعيّين والحركات الاجتماعيّة دفع شركات التكنولوجيا الكبرى نحو نموذج أكثر عدلًا؟

تاريخيًّا، تم توظيف التطورات التكنولوجية في إدامة الفصل العنصريّ والإبادة الجماعيّة، وينطبق الشيء نفسه في أيامنا هذه أيضًا. من منصّات وسائل التواصل الاجتماعيّ التي تضخّم الدعوات للإبادة الجماعيّة – مثل ما حدث للمحاضر ميريج أماري أبرها، الذي تمّ تنظيم قتله على فيسبوك خلال الإبادة الجماعيّة التي قام بها التيغراي – وحتّى الأسلحة التلقائيّة التي جُرّبت بدايةً على الفلسطينيّين، ومن ثمّ تمّ تصديرها إلى أماكن أخرى، لا تزال التكنولوجيا بؤرة الفصل العنصريّ والإبادة الجماعيّة. تعمل كليّات وجامعات مرموقة، مثل معهد MIT وجامعة ستانفورد، و/أو صناديق التحوّط التي تستثمر في الشركات التي تفعل ذلك كمقاولين عسكريّين يبنون آلات لصنع الموت. تاريخيًّا، كان تنظيم الطلّاب الجامعيّين ضد هذه الممارسات عاملًا ضروريًّا في الدعوة والنشاط ضد هذه العلاقات، وينطبق الشيء نفسه اليوم. كان، ولا يزال، الموظّفون في بعض الشركات الأكثر نفوذًا في العالم، محورييّن في دفع مُشغّليهم بعيدًا عن الممارسات والعلاقات التجاريّة القمعية والمدمّرة. في هذا الحديث، سيستعرض تيمنيت بعض الطرق التي تُستخدم بها التكنولوجيا لإدامة الفصل العنصريّ والإبادة الجماعيّة، والحركات التي تقاوم وترسم مستقبلًا تكنولوجيًّا مختلفًا.

 

live-img
AR EN 17:30 - 18:30

الجلسة الثالثة. التنظيم والتشريع: ترويض الذكاء الاصطناعيّ من أجل حقوق الإنسان

ستركّز الجلسة على مختلف الأطر التنظيميّة التي تهدف إلى ضمان استرشاد تطوّرات تكنولوجيا الذكاء الاصطناعيّ بشعور المسؤوليّة المجتمعيّة وارتكازها على حقوق الإنسان. سيقوم المتحدّثون بتقييم قانون الذكاء الاصطناعيّ للاتحاد الأوروبيّ – باعتباره أوّل تشريع رئيسيّ في هذا المضمار – بالإضافة إلى الأطر التنظيميّة الدوليّة الأخرى الموجّهة نحو الذكاء الاصطناعيّ. سيكون السؤال المركزيّ في هذه المناقشة: "ماذا يجب على المشرّعين القيام به لضمان تطوير تكنولوجيا الذكاء الاصطناعيّ بطريقة أخلاقيّة ومسؤولة، وكيف؟".

 

live-img
AR EN 18:30 - 18:45

إليزابيث وارن- عضو مجلس الشيوخ في الولايات المتّحدة: كيف نحمي الجمهور ونطوّر ذكاء اصطناعيّ أخلاقيّ

طوال المسيرة المهنيّة لعضو مجلس الشيوخ، وارن، في الخدمة العامّة، كانت من أكثر المدافعين عن حماية المستهلك في الولايات المتّحدة. في حين يوفّر تقدّم تكنولوجيا الذكاء الاصطناعيّ فوائد محتملة للمواطنين العاديين، تستفيد الشركات أيضًا من التكنولوجيا الجديدة للاستفادة منهم. ستنضم إلينا إليزابيث وارن للتحدّث عن كيف يمكننا، كمجتمع عالميّ، الاستفادة من الإمكانات الكبيرة التي يمكن أن يقدّمها الذكاء الاصطناعيّ، والتخفيف من مخاطره في الوقت نفسه.