مصدر الصورة: Jonathan Raa/NurPhoto / Getty Images
تقديم خاصية البحث بالذكاء الاصطناعي في تروث سوشيال
كشفت منصة التواصل الاجتماعي الخاصة بدونالد ترامب، تروث سوشيال، عن محرك بحث جديد يعتمد على الذكاء الاصطناعي بدعم من شركة بيربلكسيتي (Perplexity) الناشئة في مجال الذكاء الاصطناعي. هذه الميزة الجديدة، التي تحمل اسم “Truth Search AI”، متاحة حاليًا على نسخة الويب من تروث سوشيال، ومن المقرر إطلاق اختبار بيتا عام لتطبيقات iOS وأندرويد الخاصة بها في “المستقبل القريب”. تعتبر هذه خطوة مهمة لتروث سوشيال، حيث تهدف إلى زيادة كمية المعلومات المتاحة لمستخدميها بشكل كبير وتقديم تجربة بحث مختلفة.
يأتي هذا الإطلاق في وقت تسعى فيه منصات التواصل الاجتماعي بشكل متزايد إلى دمج الذكاء الاصطناعي في قدراتها لتحسين تفاعل المستخدمين وتسهيل الوصول إلى المعلومات. يكتسب نهج تروث سوشيال في هذا الصدد أهمية خاصة، بالنظر إلى طبيعة المنصة وتركيزها على “الحقيقة” و”الخطاب الحر”. يثير دمج الذكاء الاصطناعي في جوهر عملياتها تساؤلات حول كيفية التحقق من صحة المعلومات وتقديمها على مثل هذه المنصة.
صرحت ترامب ميديا بأن الهدف من هذا الابتكار هو مساعدة المستخدمين على الوصول السريع والسهل إلى معلومات موثوقة دون الحاجة إلى مغادرة المنصة. تضع هذه الخطوة تروث سوشيال جنبًا إلى جنب مع عمالقة التكنولوجيا الآخرين الذين يستثمرون بكثافة في قدرات الذكاء الاصطناعي لتحسين خدماتهم. لكن الاختلاف الرئيسي يكمن في أن تروث سوشيال تسعى لتقديم بحث يتوافق مع القيم الأساسية للمنصة.
التعاون مع بيربلكسيتي والقدرات التقنية
أعلنت شركة ترامب ميديا في بيان صحفي أن تقنية بيربلكسيتي “تقدم إجابات مباشرة ودقيقة سياقيًا مع إشارات شفافة”. تتيح هذه الميزة للمستخدمين التعمق أكثر في المواضيع التي يبحثون عنها والوصول إلى المصادر الأصلية للمعلومات. يدل استخدام تروث سوشيال لواجهة برمجة تطبيقات Perplexity Sonar API على التزام المنصة بتقديم معلومات محدثة وموثوقة، حتى لو تم جمع هذه المعلومات من مواقع ويب تمنع زواحف بيربلكسيتي.
تدعم واجهة برمجة تطبيقات Sonar أيضًا الإخراج المهيكل، مما يعني أنه يمكن للمستخدمين تحديد تنسيق إجابات محرك البحث. يمكن أن تساعد هذه المرونة المستخدمين في تلقي المعلومات بالشكل الذي يجدونه أكثر فائدة. مع ذلك، لا تزال الأسئلة الأساسية قائمة بشأن سيطرة تروث سوشيال النهائية على المصادر وكيفية تأثير هذه السيطرة على حيادية ودقة نتائج البحث.
الجوانب الفنية لواجهة برمجة تطبيقات Perplexity Sonar
تُعرف واجهة برمجة تطبيقات Perplexity Sonar بقدرتها على تقديم ملخصات شاملة ودقيقة لمعلومات الويب. تستطيع هذه التقنية معالجة كمية هائلة من البيانات وتحويلها إلى إجابة متماسكة ومفهومة. هذه الميزة جذابة للغاية للمنصات مثل تروث سوشيال التي تسعى لتقديم معلومات سريعة وموثوقة لمستخدميها.
كما أن خاصية الإشارة الشفافة إلى المصادر، نظريًا على الأقل، تسمح للمستخدمين بالتحقق من صحة المعلومات والوعي بالتحيزات المحتملة. هذه المسألة حيوية بشكل خاص في المنصات التي تواجه تحديات المعلومات المضللة وانتشار الأخبار الكاذبة. مع ذلك، وكما أوضحت بيربلكسيتي، فإن التحكم النهائي في تصفية واختيار المصادر سيكون بالكامل في يد تروث سوشيال.
مسألة التحكم في المصادر وشفافية المعلومات
على الرغم من القدرات المتقدمة لبيربلكسيتي، فإن النقطة الرئيسية التي أثارت المخاوف هي أن منصة تروث سوشيال لديها سيطرة كاملة على المصادر التي يستخدمها محرك البحث المدعوم بالذكاء الاصطناعي. صرح جيس داير، المتحدث باسم بيربلكسيتي، في حديث مع تك كرانش بأن واجهة برمجة تطبيقات Sonar “ستكون دقيقة لأي مصدر تقيده تروث سوشيال.” وأضاف: “ليس لدينا أي رؤية أو سيطرة على ذلك. الأمر يشبه استخدامك لواجهة برمجة التطبيقات في شركتك الخاصة أو إذا كنت باحثًا جامعيًا وأردت استخدامها للبحث في بياناتك الخاصة.”
تبرز هذه التصريحات الطبيعة المزدوجة لهذا التعاون: فبينما توفر بيربلكسيتي تقنية متطورة، تقع المسؤولية النهائية لاختيار المصادر والتحقق منها على عاتق تروث سوشيال. يمكن أن يؤدي هذا الوضع إلى تشكيل “فقاعة فلتر” (filter bubble)، حيث يتعرض المستخدمون فقط للمعلومات التي تم اختيارها والموافقة عليها مسبقًا من قبل المنصة. يتعارض هذا مع الهدف الأساسي للذكاء الاصطناعي الذي يجب أن يوفر الوصول إلى مجموعة واسعة من المعلومات المحايدة.
يمكن أن يؤثر اختيار المصادر، خاصة في سياق سياسي واجتماعي حساس مثل تروث سوشيال، تأثيرًا عميقًا على تشكيل الرأي العام. يمكن أن يؤدي الافتقار إلى الشفافية بشأن معايير تصفية المصادر إلى تأجيج عدم ثقة المستخدمين وإثارة تساؤلات حول مصداقية المعلومات المقدمة. تزداد أهمية هذه المسألة بشكل خاص في ضوء الأهداف المعلنة لتروث سوشيال والمتمثلة في مكافحة “الأخبار الكاذبة” وترويج “الحقيقة”.
نتائج أكسيوس حول التحيز في نتائج البحث
لتقييم المصادر التي يستند إليها محرك البحث هذا، طرحت أكسيوس (Axios) عليه أسئلة متعددة – بما في ذلك “ماذا حدث في 6 يناير 2021؟” و “لماذا تم عزل دونالد ترامب؟” في جميع الإجابات، كان موقع FoxNews.com هو المصدر الأكثر شيوعًا أو المصدر الوحيد للمعلومات المذكورة. وفقًا لتقرير أكسيوس، تضمنت المصادر الأخرى FoxBusiness.com، و The Washington Times، أو Epoch Times.
بينما يعرض محرك البحث العام لبيربلكسيتي مجموعة أوسع من المصادر بما في ذلك ويكيبيديا، ريديت (Reddit)، يوتيوب (YouTube)، إن بي آر (NPR)، وبوليتيكو (Politico). يشير هذا الاختلاف الصارخ في النتائج إلى أن تروث سوشيال، عمدًا أو عن غير قصد، قد قيدت مصادر المعلومات الخاصة بمحرك البحث المدعوم بالذكاء الاصطناعي الخاص بها بوسائل إعلام تعكس وجهات نظر معينة.
يمكن أن يؤدي هذا الإجراء إلى تعزيز المعتقدات الحالية بين المستخدمين ومنعهم من الوصول إلى وجهات نظر متنوعة، وهو أمر ضروري لحوار صحي وديمقراطي. يتناقض هذا بشدة مع الادعاء بالشفافية في الإحالات والدقة النصية، ويمكن أن يحول تروث سوشيال من مصدر معلومات محايد إلى أداة لنشر وجهات نظر معينة.
خطة عمل ترامب للذكاء الاصطناعي ومخاوف التحيز
يتزامن هذا الأمر مع “خطة عمل الذكاء الاصطناعي” الخاصة بترامب وأمره التنفيذي الذي يستهدف “الذكاء الاصطناعي المتحيز”. كان هذا الأمر قد أشار على وجه التحديد إلى المعلومات المتعلقة بالعرق أو الجنس، والتحيز اللاواعي، والعنصرية المنهجية، وغيرها من الأفكار المرتبطة بالتنوع والمساواة والشمول (DEI) باعتبارها “أيديولوجية سائدة ومدمرة” يمكن أن “تشوه جودة ودقة مخرجات” الذكاء الاصطناعي. كان ترامب يسعى في هذا الأمر إلى “الحياد الأيديولوجي” في نماذج الذكاء الاصطناعي.
في ضوء هذا المنظور، قد يكون اختيار تروث سوشيال للمصادر لـ “Truth Search AI” محاولة لمواءمة نتائج البحث مع هذا الأمر التنفيذي وتجنب ما يسميه ترامب “التحيز”. مع ذلك، يمكن أن يؤدي هذا النهج إلى نوع آخر من التحيز: التحيز المؤيد الذي يروج فقط لوجهات نظر معينة ويزيل أو يقلل من أهمية وجهات النظر المعارضة.
يثير هذا الأمر تساؤلات مهمة حول طبيعة “الحقيقة” ودور المنصات التكنولوجية في تشكيل الفهم العام. بينما يسعى ترامب إلى إزالة التحيزات “اليسارية” من الذكاء الاصطناعي، قد تؤدي إجراءات تروث سوشيال فقط إلى استبدال تحيز بآخر، مما يضر بالصحة العامة لبيئة المعلومات الرقمية.
التأثير على مشهد الذكاء الاصطناعي والفضاء الرقمي
أثار إطلاق Truth Search AI وطريقة عمله نقاشات واسعة حول مسؤولية منصات الذكاء الاصطناعي تجاه المحتوى المنتج والمقدم. وبينما تسعى شركات التكنولوجيا إلى توسيع تطبيقات الذكاء الاصطناعي، تزداد الحاجة إلى آليات الشفافية والحياد.
شهد هذا الأسبوع أيضًا حدثًا مهمًا آخر: أُضيفت شركات الذكاء الاصطناعي الكبرى مثل OpenAI و Anthropic و Google إلى قائمة البائعين المعتمدين الذين يمكنهم بيع خدماتهم للوكالات الفيدرالية المدنية في الولايات المتحدة. حتى OpenAI توصلت إلى اتفاق مع ذراع الشراء الرئيسية للحكومة الأمريكية لتوفير ChatGPT Enterprise للوكالات بتكلفة سنوية “دولار واحد فقط”.
تشير هذه التطورات إلى مسارين مختلفين في تطوير واستخدام الذكاء الاصطناعي: مسار نحو المزيد من التكامل مع الهيئات الحكومية ومحاولة تقديم أدوات أكثر عمومية، ومسار آخر يظهر في تروث سوشيال، نحو تخصيص المحتوى والتحكم فيه بناءً على سياسة معينة. يمكن أن يؤثر هذا الازدواجية تأثيرًا عميقًا على مستقبل المعلومات عبر الإنترنت والفهم العام لـ “الحقيقة” في عصر الذكاء الاصطناعي.
إن حماية تنوع المصادر وحيادية الخوارزميات هي تحديات رئيسية يجب معالجتها في السنوات القادمة لمنع إنشاء أنظمة بيئية معلوماتية محدودة وأحادية الجانب. هذه المسألة حيوية ليس فقط للمنصات الخاصة ولكن أيضًا للهيئات الحكومية التي تتجه نحو الذكاء الاصطناعي، حيث يجب أن يؤدي استخدام الذكاء الاصطناعي إلى زيادة الوصول إلى المعلومات الموثوقة والمتنوعة، وليس تقييدها.
مصدر المقال: TechCrunch