“`html
يشهد مجال الذكاء الاصطناعي (AI) تطورات متسارعة تعيد تشكيل حدود التكنولوجيا، إلا أن هذه التطورات غالبًا ما تتجاوز صياغة المبادئ الأخلاقية والأطر القانونية. تُعد القضية البارزة التي سلطت الضوء بشكل صارخ على هذه التوترات قضية نجمة هوليوود سكارليت جوهانسون وعملاق التكنولوجيا OpenAI. أثار الجدل المحيط بمساعد الصوت “Sky” الخاص بـ OpenAI، والذي حمل تشابهاً لافتاً مع أداء جوهانسون الصوتي المميز في فيلم “Her” الحائز على إعجاب النقاد، محادثة عالمية حاسمة حول الموافقة، والتشابه الرقمي، وجوهر الإبداع البشري في عصر الذكاء الاصطناعي.
الشرارة: سكارليت جوهانسون ضد Sky من OpenAI
في مايو 2024، كشفت OpenAI عن أحدث إصداراتها من المساعدين الافتراضيين، وكان أبرز ما فيه صوت جديد يُدعى “Sky”. على الفور تقريباً، لاحظ المستمعون، وخاصة عشاق سينما الخيال العلمي، تشابهاً غريباً بين نبرة Sky السلسة والساحرة وصوت سامانثا، شخصية الذكاء الاصطناعي التي جسدتها سكارليت جوهانسون في فيلم “Her” عام 2013. لم يكن هذا التشابه مجرد مصادفة، بل كان مزعجاً للغاية لجوهانسون نفسها، التي أعربت علناً عن صدمتها وعدم تصديقها.
ما جعل الموقف بالغ الخطورة هو كشف جوهانسون أن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، قد تواصل معها عدة مرات قبل الإطلاق لتولي مهمة تجسيد صوت المساعد الافتراضي الذي سيقلد صوتها لاحقاً. لقد رفضت هذه العروض بشكل قاطع لأسباب شخصية. على الرغم من رفضها الواضح، تم الإطلاق بصوت يعتبر، بالنسبة لها وللكثيرين، تقليداً صارخاً لهويتها الصوتية الفريدة. وأضاف ألتمان إلى سيل التكهنات بتغريدة غامضة من كلمة واحدة – “her” – بعد وقت قصير من إطلاق Sky، مما بدا وكأنه اعتراف بالارتباط المتعمد بدور جوهانسون الأيقوني.
تصاعد هذا الحادث بسرعة، وجذب إدانات واسعة النطاق، ودفع الفريق القانوني لجوهانسون للتدخل. أدى إجراءهم السريع إلى قيام OpenAI بإزالة صوت “Sky” من ChatGPT، مدعية أن الصوت لم يكن يهدف أبداً إلى تقليد جوهانسون. ومع ذلك، كان الضرر قد وقع بالفعل، وكشف الحادث عن الحاجة الملحة لوضع حدود أخلاقية أوضح وحماية قانونية قوية في مشهد الذكاء الاصطناعي سريع التطور.
أصداء “Her”: تشابه تنبؤي
استكشف فيلم “Her” للمخرج سبايك جونز مستقبلاً قريباً حيث يشكل البشر علاقات عاطفية عميقة مع أنظمة تشغيل الذكاء الاصطناعي المتقدمة. لُقّب أداء جوهانسون لشخصية سامانثا ببراعته ودقته وعمقه الإنساني، على الرغم من أن الشخصية كانت غير مادية تماماً. كان الفيلم بمثابة تأمل تنبؤي لطبيعة الوعي، والرفقة، والخطوط المتلاشية بشكل متزايد بين الذكاء البشري والاصطناعي.
لم يغفل المراقبون عن المفارقة المتمثلة في أن OpenAI، وهي شركة رائدة في أبحاث ونشر الذكاء الاصطناعي، بدت وكأنها تقوم بتكرار الصوت من فيلم استكشف تعقيدات ومزالق هذه التكنولوجيا. هذا الحدث الواقعي عكس سردية سينمائية، مما طرح أسئلة جوهرية:
- الهوية الرقمية والتقليد: إلى أي مدى يمكن للذكاء الاصطناعي تكرار السمات البشرية قبل أن يعتبر سرقة هوية أو تقليدًا غير مصرح به؟
- وهم الألفة: هل يخلق تقليد صوت مألوف ومريح إحساسًا زائفًا بالاتصال أو الثقة يمكن استغلاله؟
- الفن يعكس الحياة: عندما تتحول التحذيرات الخيالية بشأن التكنولوجيا إلى واقع، فماذا يعني ذلك لاستعداد مجتمعنا لتبني أو تنظيم الابتكارات الجديدة؟
كان تشابه “Her” قوياً لأنه سلط الضوء ليس فقط على القدرة التقنية، بل على حافة ثقافية وأخلاقية نقترب منها جميعًا. أجبرنا على مواجهة الفكرة غير المريحة بأن التكنولوجيا المصممة لخدمة البشرية يمكن، بدون ضمانات مناسبة، أن تقوض الاستقلالية الفردية والنزاهة الفنية.
المتاهة الأخلاقية لتوليف صوت الذكاء الاصطناعي
يقع جوهر نزاع جوهانسون-OpenAI في الآثار الأخلاقية لتوليف صوت الذكاء الاصطناعي، خاصة فيما يتعلق بتشابه المشاهير والمبدأ الأساسي للموافقة. في عالم رقمي متزايد، يُعد صوت الشخص وصورته وطريقته الفريدة في الكلام جزءًا لا يتجزأ من هويته، وبالنسبة للشخصيات العامة، فإنها تمثل علامتهم التجارية وسبل عيشهم.
الموافقة وحقوق التشابه
في العديد من الولايات القضائية، يقع الاستخدام غير المصرح به لصوت شخص أو صورته لأغراض تجارية ضمن نطاق “حق الدعاية” أو “حقوق الشخصية”. تحمي هذه الحقوق الأفراد من استغلال هويتهم دون إذن صريح منهم. أبرز وضع جوهانسون عدم كفاية الأطر القانونية الحالية لمواكبة قدرات الذكاء الاصطناعي المتقدمة. إذا كان بإمكان الذكاء الاصطناعي إنشاء صوت لا يمكن تمييزه عن صوت الإنسان، حتى لو لم يكن تسجيلاً مباشراً، فهل لا يزال يعتبر انتهاكًا لهذه الحقوق؟ هذا مجال ناشئ ولكنه بالغ الأهمية من النزاعات القانونية.
تقنية التزييف العميق والمعلومات المضللة
يعد جدل “Sky” تذكيرًا صارخًا بالتحديات الأوسع التي تطرحها تقنية التزييف العميق (Deepfake)، والتي يمكنها إنشاء صوتيات وفيديوهات وصور واقعية للغاية ولكنها ملفقة بالكامل. بينما كان قضية OpenAI تتعلق بمنتج تجاري، فإن التكنولوجيا الأساسية لها آثار بعيدة المدى، بما في ذلك احتمالية:
- المعلومات المضللة والمغلوطة: إنشاء خطابات أو مقابلات أو تسجيلات صوتية مزيفة يمكنها التلاعب بالرأي العام أو نشر روايات كاذبة.
- سرقة الهوية والاحتيال: استخدام أصوات مستنسخة لعمليات احتيال أو للوصول غير المصرح به إلى معلومات حساسة.
- تآكل الثقة: جعل من الصعب بشكل متزايد على الجمهور التمييز بين ما هو حقيقي وما هو مُصنع اصطناعياً، مما يؤدي إلى عدم ثقة عامة في الوسائط الرقمية.
في الواقع، أصبحت تقنية إنشاء الأصوات الاصطناعية متاحة بشكل متزايد، مع تقديم منصات مختلفة لقدرات تتراوح من تحويل النص إلى كلام إلى تعديل الصوت الأكثر تقدمًا، مثل تلك الموجودة في الأدوات المصممة لـ إنشاء صوتيات الذكاء الاصطناعي لتطبيقات متنوعة. تزيد هذه الإتاحة من أهمية الضوابط الأخلاقية.
التهديد للواقع: تحذير جوهانسون العميق
إلى جانب الجوانب القانونية والتجارية، أعربت سكارليت جوهانسون عن قلق أعمق: أن الذكاء الاصطناعي “يهدد الواقع” بحد ذاته. يتعمق منظورها في الآثار الفلسفية والوجودية للتكنولوجيا التي يمكنها تقليد السمات البشرية تمامًا، خاصة تلك المرتبطة بالأداء والتعبير العاطفي. شددت على:
- “روحانية” الأداء: ذكرت جوهانسون: “لا أعتقد أن العمل الذي أقوم به يمكن أن يقوم به الذكاء الاصطناعي. لا أعتقد أن روحانية الأداء يمكن تكرارها.” هذا يسلط الضوء على نقاش أساسي: هل يمكن للذكاء الاصطناعي حقًا التقاط الصفات غير الملموسة للفن البشري – العاطفة، والنية، وتجربة الحياة الفريدة التي تغذي الأداء؟ يجادل العديد من الفنانين بأن الذكاء الاصطناعي، بطبيعته، لا يمكنه إلا المحاكاة، وليس الأصل، لهذه العناصر البشرية الأعمق.
- تآكل الثقة البشرية: يمتد قلقها إلى التأثير المجتمعي الأوسع. “الصورة الأكبر – حول كيف يمكننا، كبشر، بوجود شيمنا الهشة، الاستمرار في امتلاك الثقة التي يجب أن نملكها تجاه بعضنا البعض، للمضي قدمًا كمجتمع. إنه بوصلة أخلاقية.” إذا كان يمكن تزييف الأصوات والصور بشكل مثالي، فكيف نثق بما نسمعه ونراه؟ يمكن أن يقوض هذا التآكل للثقة بشكل أساسي التماسك الاجتماعي والتواصل.
- أساس الواقع المشترك: “نحن نتحرك في العالم كل يوم مع العلم أننا يجب أن نثق في واقع أساسي نتفق عليه جميعًا. الذكاء الاصطناعي يهدد أساس ذلك، وهذا أمر مؤرق للغاية بالنسبة لي.” يتحدث هذا عن الأزمة المعرفية التي يمكن أن تسببها التزييفات العميقة للذكاء الاصطناعي، مما يتحدى قدرتنا على الاتفاق على ما هو حقيقي وأصلي بموضوعية.
يُعد موقف جوهانسون القوي انعكاسًا لقلق متزايد داخل الصناعات الإبداعية، وخاصة هوليوود، حيث تعد أصوات الممثلين وشبههم أدواتهم الأساسية. على سبيل المثال، ركزت إضرابات SAG-AFTRA في عام 2023 بشكل بارز على المطالبة بحماية قوية ضد تكرار الذكاء الاصطناعي لأعمال الفنانين وهوياتهم، مما يؤكد المخاوف الواسعة.
الإبحار في الحدود الرقمية: آثار على الفن والثقة
تُعد حادثة سكارليت جوهانسون و OpenAI نقطة تحول حرجة، مما يجبر أصحاب المصلحة عبر قطاعات مختلفة على مواجهة التحديات الأخلاقية والعملية التي يفرضها الذكاء الاصطناعي المتقدم.
التأثير على الصناعات الإبداعية
بالنسبة للممثلين وفناني الصوت وغيرهم من المبدعين، يُعد تهديد التكرار بالذكاء الاصطناعي تهديدًا وجوديًا. إذا كان يمكن توليد خصائصهم الصوتية الفريدة أو شبههم البصرية حسب الرغبة، فإن قيمتهم الاقتصادية والسيطرة الفنية لديهم تتضاءل. يمكن أن يؤدي هذا إلى مستقبل حيث:
- انخفاض الفرص: قد تختار الشركات المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بدلاً من توظيف مواهب بشرية.
- تآكل الحقوق: قد يفقد الفنانون السيطرة على كيفية استخدام شبههم أو تحقيق الدخل منها بعد أدائهم الأولي.
- أزمة الأصالة: قد يكافح الجمهور للتمييز بين الأداء البشري الحقيقي والمحاكاة بالذكاء الاصطناعي، مما يقلل من قيمة الأول.
يُسلط الضوء على الحاجة الملحة لاتفاقيات تعاقدية جديدة ونماذج ترخيص، وربما حماية بقيادة النقابات، التي تعالج على وجه التحديد قدرات الذكاء الاصطناعي وتأثيراتها على العمل الإبداعي.
الآثار المجتمعية وثقة الجمهور
بالإضافة إلى الحقوق الفردية، فإن الآثار المجتمعية الأوسع بعيدة المدى. يمكن لعالم حيث الوسائط الاصطناعية لا يمكن تمييزها عن الواقع أن يعزز مناخًا من الشك المنتشر. هذا يؤثر ليس فقط على الترفيه، بل أيضًا على:
- الصحافة والأخبار: يمكن للقدرة على تزوير الصوتيات أو الفيديوهات المعقولة أن تقوض التقارير الموضوعية وتنشر الدعاية.
- الأنظمة القانونية: يصبح إثبات صحة الأدلة معقدًا بشكل لا يصدق إذا كان من السهل إنتاج التزييفات العميقة.
- العلاقات الشخصية: احتمالية الاستخدام الخبيث، مثل تزوير المحادثات أو التفاعلات.
الحفاظ على واقع مشترك وقابل للتحقق أمر أساسي للخطاب الديمقراطي والنظام الاجتماعي. تُعد حادثة “Sky”، على الرغم من أنها تتعلق بشخصية مشهورة، دليلًا على مدى قربنا من نقطة يمكن فيها أن تتزعزع هذه القاعدة بشدة.
الطريق إلى الأمام: التنظيم والذكاء الاصطناعي المسؤول
يُظهر الجدل المحيط بسكارليت جوهانسون و “Sky” الخاص بـ OpenAI بشكل قاطع الحاجة الملحة لأطر تنظيمية شاملة والتزام بالتطوير المسؤول للذكاء الاصطناعي. في حين أن الابتكار التكنولوجي ضروري، يجب أن يتم جنبًا إلى جنب مع الاعتبارات الأخلاقية القوية والضمانات القانونية.
الإجراء التشريعي
تبدأ الحكومات في جميع أنحاء العالم في التعامل مع تنظيم الذكاء الاصطناعي، ولكن التقدم غالبًا ما يكون بطيئًا ورد فعلًا. المجالات الرئيسية للإجراء التشريعي تشمل:
- حقوق الشخصية والتشابه الرقمي: تحديث القوانين الحالية أو سن قوانين جديدة لحماية سمات الأفراد الفريدة، مثل الأصوات والصور، بشكل خاص من التكرار غير المصرح به بواسطة الذكاء الاصطناعي.
- الشفافية والإفصاح: إلزام وضع علامة واضحة على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على أنه كذلك، لمنع الممارسات الخادعة.
- المسؤولية عن سوء الاستخدام: تحديد خطوط واضحة للمساءلة للمطورين والمشغلين لأدوات الذكاء الاصطناعي عندما تُستخدم هذه الأدوات لأغراض ضارة أو مخالفة.
التنظيم الذاتي للقطاع وأفضل الممارسات
بالإضافة إلى تفويضات الحكومة، تقع على عاتق مطوري وشركات الذكاء الاصطناعي مسؤولية أخلاقية لاعتماد تدابير التنظيم الذاتي وأفضل الممارسات. يشمل ذلك:
- نماذج الموافقة الاختيارية: ضمان أن أي استخدام لبيانات العالم الحقيقي لتدريب الذكاء الاصطناعي أو توليد المخرجات يعتمد على موافقة صريحة ومستنيرة.
- التصميم الأخلاقي للذكاء الاصطناعي: دمج الاعتبارات الأخلاقية منذ البداية في تطوير الذكاء الاصطناعي، بما في ذلك تخفيف التحيزات والإنصاف.
- أدوات العلامات المائية والأصل: تطوير حلول تقنية يمكنها تحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أو تتبع مصدره.
أشار الاستجابة الفورية من OpenAI لإزالة صوت “Sky”، على الرغم من تأخرها، إلى اعتراف بالقضية والمخاطر المحتملة على السمعة والقانونية. من المأمول أن يكون هذا الإجراء السريع، الذي حفزه الاحتجاج العام والتدخل القانوني، بمثابة سابقة لمزيد من الحذر واحترام حقوق الأفراد في عمليات نشر الذكاء الاصطناعي المستقبلية.
الحوار المستمر
في نهاية المطاف، فإن حادثة سكارليت جوهانسون و OpenAI هي أكثر من مجرد نزاع بين المشاهير؛ إنها صورة مصغرة للمواجهة المجتمعية الأكبر مع الذكاء الاصطناعي. تسلط الضوء على الحاجة الملحة لحوار مستمر متعدد أصحاب المصلحة يشمل مبتكري التكنولوجيا والخبراء القانونيين وصانعي السياسات والفنانين والجمهور. فقط من خلال الجهود التعاونية يمكن للبشرية تسخير الإمكانات الهائلة للذكاء الاصطناعي مع حماية القيم الإنسانية الأساسية والحقوق ونسيج الواقع المشترك نفسه.
“`