يمكنك تعزيز ثقتك في المعلومات التي تقدمها أدوات الذكاء الاصطناعي إذا كنت قادرًا على تمييز العلامات التي تكشف عن الهلوسة. فقد يحدث أن تطرح سؤالًا على ChatGPT أو غيره فيعطيك إجابة مكتوبة بأسلوب سليم لكنها غير صحيحة، وهذه هي الهلوسة. أحيانًا تكون بسيطة، وأحيانًا قد تكون مقلقة خاصة عندما تتعلق المعلومات بمجالات حساسة مثل التوصيات الطبية أو القانونية.
الذكاء الاصطناعي لا يدرك أنه يقدم معلومات خاطئة، بل يعرضها بثقة كأنها حقائق مؤكدة. ولأن هلوسات الذكاء الاصطناعي ليست دائمًا واضحة، فمن المفيد معرفة الطرق التي تساعد على اكتشافها.
هلوسات الذكاء الاصطناعي هي إنتاج النموذج لمعلومات غير صحيحة أو غير منطقية أو مؤلفة بالكامل. وتنتشر هذه الظاهرة بشكل واسع في نماذج الذكاء الاصطناعي التوليدية. وعلى عكس الأخطاء البرمجية التقليدية، فإن الهلوسة لا تنتج عن خلل في الكود، بل عن الاحتمالات التي يتعلمها النموذج أثناء تدريبه، وتظهر الهلوسة بأشكال مختلفة.
بعض النماذج تقدم معلومات غير دقيقة، مثل القول إن برج إيفل بُني عام 1999 بينما الحقيقة أنه بُني بين عامي 1887 و 1889. يحدث هذا غالبًا نتيجة نقص البيانات أو ضعف التحقق من الحقائق، وخطر هذا النوع يكون واضحًا في مجالات تتطلب دقة عالية مثل القانون والتعليم والطب.
في بعض الأحيان يقدم النموذج إجابة لا علاقة لها بالسؤال، ويُسمى هذا النوع بالهلوسة السياقية. فعلى سبيل المثال إذا سألت الروبوت عن طريقة إعداد طبق الأرز بالخضار، فجاءت الإجابة بأن هناك تسعة كواكب في النظام الشمسي، فهذا يدل على أن النموذج يعاني هلوسة واضحة وغير مترابطة مع الموضوع.
تظهر الهلوسة أيضًا في النماذج التي تتعامل مع النصوص والصور معًا. فعند طلب صورة لقطة ترتدي نظارة شمسية قد ينتج النموذج صورة القطة بلا نظارة، وهذا شائع في نماذج توليد الصور مثل DALL·E.
على الرغم من أن اكتشاف هلوسات الذكاء الاصطناعي ليس سهلاً دائمًا، فإن هناك بعض الوسائل التي تساعد في التحقق. من أهمها البحث في المصادر الموثوقة عن الأسماء والبيانات والتواريخ التي يقدمها النموذج، والتحقق من الروابط والمصادر التي يذكرها. إذا كانت غير موجودة أو غير صالحة، فهذه علامة واضحة على الهلوسة.
كما يمكنك طرح المزيد من الأسئلة حول الموضوع نفسه وطلب توضيح جزئي من النموذج، فإذا ظهرت تفاصيل متناقضة فذلك يشير إلى أن المعلومة الأصلية غير صحيحة. ويمكن أيضًا سؤال الروبوت مباشرة عن مصدر المعلومة أو مدى ثقته في إجابته، إذ توضح بعض النماذج مصدر المعلومات بينما قد تختلق نماذج أخرى مصدرًا غير موجود.
أداة فعّالة أخرى هي استخدام نموذج آخر وطرح نفس السؤال، فإذا اختلفت الإجابات بشكل كبير، فهذا يعني أن إحدى الإجابات أو كلاهما قد يكون غير دقيق. باتباع هذه الخطوات، يمكن للمستخدمين الحد من تأثير هلوسات الذكاء الاصطناعي والحصول على معلومات أكثر موثوقية ودقة.

