تثير التطورات المتسارعة في عالم الذكاء الاصطناعي، بعض المخاوف مثل الإعلان مؤخراً عن إتاحة الذكاء الاصطناعي فرصة التواصل مع الأموات، وإمكانية إجراء محادثات مع المتوفين، أكد الباحثون في جامعة كامبريدج على المخاوف بشأن الحدود الأخلاقية والضرر المحتمل لمثل هذه التطبيقات، تم تصميم روبوتات الدردشة هذه التي تعمل بالذكاء الاصطناعي، والتي يطلق عليها اسم بوتات الموتى deadbots أو بوتات الحزن griefbots، لمحاكاة لغة وشخصية الأحباء الراحلين، مما يوفر نوعاً من العزاء للثكلى، ومع ذلك، تحذر دراسة حديثة من أن هذه الابتكارات يمكن أن تؤدي إلى عواقب غير مقصودة، منها ما يصفه الباحثون بـ “المطاردة الرقمية” التي تفتقر إلى معايير السلامة.
وقد أكد على الآثار الأخلاقية لهذه التكنولوجيا تجارب أفراد مثل جوشوا باربو، الذي استخدم نسخة مبكرة من تكنولوجيا الذكاء الاصطناعي المعروفة باسم مشروع ديسمبر للتحدث مع نسخة رقمية طبق الأصل من خطيبته المتوفاة، ومن خلال تزويد الذكاء الاصطناعي بعينات من نصوصها وأوصافها الشخصية، شهد باربو استجابات واقعية أثارت مخاوف بشأن احتمال إساءة استخدام هذه التكنولوجيا، ومنها إدراج إعلانات متنكرة في صورة أفكار الراحلين.
علاوة على ذلك، يؤكد علماء النفس على تأثير هذه التقنيات على قدرة الأطفال على التكيف مع فقدان من يحبونهم، مما يثير تساؤلات حول كرامة المتوفى ورفاهية الأحياء. تؤكد البروفيسور إينيس تيستوني من جامعة بادوفا على صعوبة الانفصال عن الأحباء الذين رحلوا، مشددة على أهمية فهم الموت وعواقبه، ولتوضيح المخاطر المحتملة، حدد علماء أخلاقيات الذكاء الاصطناعي في كامبريدج ثلاثة سيناريوهات افتراضية يمكن من خلالها أن تسبب بوتات الحزن الضرر النفسي لمن يستخدمها.
وتشمل هذه عمليات المحاكاة غير المصرح بها لأفراد متوفين يروجون لمنتجات تجارية، والارتباك الناجم عن التفاعلات غير الواقعية التي تؤدي إلى تأخير الشفاء، وفرض الوجود الرقمي على متلقين غير راغبين، مما يسبب الاضطراب العاطفي والشعور بالذنب، تدعو الدراسة إلى تنفيذ عمليات تصميم بوتات الحزن القائمة على الموافقة، مع دمج آليات الخروج والقيود العمرية. علاوة على ذلك، تدعو الدراسة إلى طقوس جديدة للتخلص من هذه النسخ الرقمية المتماثلة بكل احترام، مما يثير تساؤلات عما إذا كانت هذه التكنولوجيا تؤدي فقط إلى تأخير عملية الحزن.
وتسلط الدكتورة كاتارزينا نواتشيك باسينسكا، المؤلفة المشاركة في الدراسة، الضوء على التعقيدات الأخلاقية للذكاء الاصطناعي في الحياة الرقمية الآخرة، مشددة على ضرورة إعطاء الأولوية لكرامة المتوفى وحماية حقوق كل من الجهات المانحة للبيانات والمستخدمين. ومع استمرار تطور استخدام الذكاء الاصطناعي في عالم الحياة الآخرة الرقمية، تظل الاعتبارات الأخلاقية في غاية الأهمية في التنقل في هذه المنطقة المجهولة. وفي الصين، توفر الصناعة المزدهرة للنسخ المتماثلة للأحباء المتوفين التي أنشأها الذكاء الاصطناعي العزاء للمشيعين في حين تثير أسئلة أخلاقية كبيرة، تستفيد شركات مثل Silicon Intelligenceمن التقدم في تكنولوجيا الذكاء الاصطناعي لإنشاء صور رمزية رقمية تحاكي المحادثات مع الموتى، مما يوفر الراحة لأفراد مثل صن كاي، الذي يسعى إلى الحفاظ على الاتصال مع والدته المتوفاة.
ويؤكد الطلب على هذه الخدمات التقليد الثقافي المتمثل في التواصل مع الموتى، إلا أن النقاد يتساءلون عما إذا كان التفاعل مع نسخ الذكاء الاصطناعي المتماثلة وسيلة صحية لمعالجة الحزن. ورغم القيود التكنولوجية والشكوك الأخلاقية، يسجل سوق الخلود الرقمي نموا ملحوظًا، في ظل انخفاض الأسعار وزيادة إمكانية الوصول إليه. تعتمد الصور الرمزية التي ينشئها الذكاء الاصطناعي على مدخلات البيانات مثل الصور ومقاطع الفيديو والنصوص لتكرار ملامح الشخص المتوفى وأنماط كلامه، وقد أدى التقدم السريع الذي حققته الصين في تكنولوجيا الذكاء الاصطناعي إلى جعل مثل هذه الخدمات أكثر سهولة في الوصول إليها، حيث تقدم شركات مثل سيليكون إنتليجينس Silicon Intelligence خيارات قابلة للتخصيص تتراوح من التطبيقات التفاعلية إلى شاشات الأجهزة اللوحية.
وبينما ينظر البعض إلى هذه النسخ المتماثلة على أنها علاجية، يثير البعض الآخر مخاوف بشأن صحة التفاعلات والآثار الأخلاقية المترتبة على تكرار الموتى دون موافقتهم. بالإضافة إلى ذلك، فإن التحديات التقنية مثل تكرار حركات الجسم والحصول على بيانات التدريب الكافية تشكل عقبات كبيرة. وقد تجسدت المعضلات الأخلاقية المحيطة بنسخ الذكاء الاصطناعي المقلدة في حادثة مثيرة للجدل تورطت فيها شركة في نينغبو، والتي استخدمت الذكاء الاصطناعي لإنشاء مقاطع فيديو لمشاهير متوفين بدون الحصول على الموافقة. أثار الحادث غضبًا عامًا وسلط الضوء على الحاجة إلى مبادئ توجيهية أخلاقية واضحة في المجال المزدهر لتكنولوجيا الحياة الآخرة الرقمية.