أطلقت شركة جوجل تحديثًا جديدًا لأداة البحث العميق Deep Research ضمن مساعدها الذكي Gemini، لتتيح للمستخدمين تحويل تقاريرهم البحثية إلى محتوى بصري تفاعلي يضم الرسوم البيانية والصور، في خطوة تهدف إلى تعزيز قدرة الذكاء الاصطناعي على تحليل البيانات وتقديم نتائج أكثر تفاعلية وسهولة في الفهم.
وتوفر أداة Deep Research إمكانات واسعة لإجراء تحليلات شاملة لمحتوى الويب، مع الاستفادة من البيانات المخزنة في Gmail ودرايف وسجل المحادثات في Google Chat، لتوفير سياق أوسع للتقارير البحثية. وبعد إنشاء التقرير النصي، أصبح بالإمكان تحويل النتائج مباشرة إلى تقارير بصرية تفاعلية تشمل الرسوم التوضيحية والجداول، بطريقة مشابهة للواجهة التوليدية Generative UI التي أضافتها جوجل سابقًا في وضع AI Mode في البحث.
وتستطيع الأداة الآن توضيح النتائج تلقائيًا، سواء كانت مرتبطة بتخصيص ميزانيات التسويق أو استكشاف نظريات علمية معقدة، مع إمكانية التفاعل مع نموذج محاكاة ديناميكي داخل التقرير وعرض النتائج وفق متغيرات مختلفة، بدل الاقتصار على قراءة النصوص فقط. وتتخذ الأداة قرارات ذكية بشأن الرسوم والعناصر البصرية التي يجب إنشاؤها، مثل بناء جدول دوري تفاعلي لتقارير الكيمياء أو عرض البيانات الكثيفة على شكل مخططات خطية وأعمدة، مع القدرة على إنشاء المخططات المعقدة في الوقت الفعلي بما يتوافق مع طلب البحث.
ويستطيع المستخدمون تجربة ميزة Deep Research عبر تطبيق Gemini على الويب، من خلال اختيار الأداة من قائمة الأدوات وإدخال طلب البحث لتوليد تقرير بحثي مخصص يضم الرسوم البيانية والعناصر البصرية المدعومة بالذكاء الاصطناعي. وتتوفر هذه الميزة حاليًا لمشتركي خطة Google AI Ultra التي تصل تكلفتها إلى 250 دولارًا شهريًا، على أن تتوسع لاحقًا لتشمل عددًا أكبر من مستخدمي Gemini، ما يعكس اتجاه جوجل لتعزيز تجربة البحث وجعل الذكاء الاصطناعي جزءًا أساسيًا من تحليلات البيانات اليومية.

