فابريس الذكاء الاصطناعي: التنفيذ التقني الحالي

في المنشور الأخير، فابريس للذكاء الاصطناعي: الرحلة التقنية شرحتُ الرحلة التي مررنا بها لبناء فابريس للذكاء الاصطناعي التي تقوم بدائرة كاملة. بدأت باستخدام Chat GPT 3 و 3.5. وبعد أن خاب أملي في النتائج، حاولت استخدام إطار عمل لانغشين لبناء نموذج الذكاء الاصطناعي الخاص بي فوقه، قبل أن أعود إلى Chat GPT بمجرد أن بدأوا في استخدام قواعد البيانات المتجهة وتحسين النتائج بشكل كبير باستخدام 4o.

إليك العملية الحالية لتدريب فابريس للذكاء الاصطناعي:

  • تُخزَّن بيانات التدريب (منشورات المدونة، وعناوين URL على Youtube، وعناوين URL للبودكاست، وعناوين URL لملفات PDF، وعناوين URL للصور) في قاعدة بيانات WordPress الخاصة بنا.
  • نستخرج البيانات وننظمها.
  • نحن نقدم البيانات المهيكلة إلى Open AI للتدريب باستخدام واجهة برمجة تطبيقات المساعدين.
  • ثم يقوم الذكاء الاصطناعي المفتوح بإنشاء قاعدة بيانات مخزن المتجهات وتخزينها.

فيما يلي مثال على جزء من البيانات المنظمة. لكل جزء من المحتوى ملف JSON خاص به. نحرص على عدم تجاوز حد الـ 32,000 توكن.

{

“معرف”: “1”,

“التاريخ”: ” “,

“الرابط”:”https://fabricegrinda.com/”,

“العنوان”: {

“المقدمة”: “ما هو “فابريس إيه آي”؟”

  },

“الفئة”: “حول فابريس”,

“feature_media”: “https://fabricegrinda.com/wp-content/uploads/2023/12/About-me.png”: “https://fabricegrinda.com/wp-content/uploads/2023/12/About-me.png”,

“وسائط_أخرى”: “”,

“نوع_المعرفة”: “مدونة”,

“تم تحديث المحتوى”: “فابريس الذكاء الاصطناعي هو تمثيل رقمي لأفكار فابريس استنادًا إلى منشورات مدونته وبعض المدونات الصوتية والمقابلات التي تم تفريغها باستخدام ChatGPT، ونظرًا لأن العديد من التدوينات تم تفريغها بشكل غير كامل وأن المدونة ليست سوى تمثيل محدود لفابريس الفرد، فإننا نعتذر عن عدم الدقة والمعلومات المفقودة. ومع ذلك، فهذه نقطة انطلاق جيدة للحصول على أفكار فابريس حول العديد من الموضوعات.”

}

هذا هو التنفيذ الفني الحالي:

  • تتم استضافة الموقع الإلكتروني الذي يواجه المستهلك على AWS Amplify.
  • يتم التكامل بين الموقع العام والذكاء الاصطناعي المفتوح من خلال طبقة واجهة برمجة التطبيقات، والتي تتم استضافتها على AWS كخادم Python API.
  • نحن نستخدم MongoDB كسجل لتخزين جميع الأسئلة التي طرحها الجمهور، والإجابات التي قدمتها Chat GPT، وعناوين URL الخاصة بالمصادر.
  • نستخدم العديد من البرامج النصية لهيكلة البيانات من المدونة ويوتيوب وغيرها لتمريرها إلى Open AI للتدريب.
  • نستخدم خاصية React-Speech Recognition لتحويل الاستفسارات الصوتية إلى نصوص.
  • كما نستخدم أيضاً تحليلات جوجل أناليتكس لتتبع حركة المرور على الموقع الإلكتروني.

من المهم ملاحظة أننا نستخدم مساعدين اثنين:

  • واحد للإجابة على الأسئلة.
  • واحد للحصول على عناوين URL للبيانات الوصفية، عناوين URL للمدونة التي تحتوي على المحتوى الأصلي لعرض المصادر في أسفل الإجابات.

ما التالي؟

  1. تحسينات تحويل الكلام إلى نص

نموذج Whisper من Open AI لتحويل الكلام إلى نص أكثر دقة من React. كما أنه يدعم لغات متعددة من خارج الصندوق، وهو جيد في التعامل مع الكلام المختلط بين اللغات واللهجات واللهجات. ونتيجة لذلك، من المرجح أن أنتقل إليه في الأشهر القادمة. ومع ذلك، فإن إعداده أكثر تعقيداً، لذا قد يستغرق الأمر بعض الوقت. تحتاج إلى التعامل مع النموذج، وإدارة التبعيات (على سبيل المثال، بايثون والمكتبات)، والتأكد من أن لديك أجهزة كافية لأداء فعال. كما أن Whisper ليس مصممًا للاستخدام المباشر في المتصفحات. عند إنشاء تطبيق ويب، تحتاج إلى إنشاء خدمة خلفية للتعامل مع النسخ مما يضيف تعقيدًا.

  • أفاتار فابريس للذكاء الاصطناعي

أريد إنشاء صورة رمزية للذكاء الاصطناعي فابريس تشبهني وتبدو مثلي ويمكنك إجراء محادثة معها. لقد قمت بتقييم D-iD لكنني وجدت أنه مكلف للغاية بالنسبة لأغراضي. مختبرات Eleven Labs صوتية فقط. Synthesia رائع ولكنه لا ينشئ حاليًا مقاطع فيديو في الوقت الفعلي. في النهاية قررت استخدام HeyGen نظراً للأسعار والوظائف الأكثر ملاءمة.

أظن أنه في مرحلة ما سيصدر Open AI حلاً خاصًا به في وقت ما، لذا سيكون هذا العمل قد ذهب سدى. أنا مرتاح لذلك وسأنتقل إلى حل الذكاء الاصطناعي المفتوح عندما يأتي الحل وإذا جاء. في هذه المرحلة، الهدف من هذا التمرين بأكمله هو معرفة ما هو ممكن مع الذكاء الاصطناعي ومقدار العمل الذي يتطلبه لمساعدتي على فهم الفضاء بشكل أفضل.

  • لوحة التحكم المخصصة

في الوقت الحالي، أحتاج الآن إلى تشغيل استعلام MongoDB للحصول على مستخرج من أسئلة وإجابات اليوم. أقوم ببناء لوحة تحكم بسيطة حيث يمكنني الحصول على مستخرجات وإحصائيات بسيطة عن عدد الاستعلامات لكل لغة، وعدد طلبات تحويل الكلام إلى نص، إلخ.

  • مصادر البيانات الإضافية

لقد قمنا للتو بتحميل محفظة FJ Labs إلى محفظة فابريس للذكاء الاصطناعي. يمكنك الآن السؤال عما إذا كانت الشركة جزءًا من المحفظة. يجيبك فابريس للذكاء الاصطناعي بوصف موجز للشركة ورابط لموقعها الإلكتروني.

نظرًا لعدد الأسئلة الشخصية التي كان يتلقاها الذكاء الاصطناعي فابريس والتي لم يكن لديه إجابات لها، فقد استغرقت وقتًا طويلاً لوضع علامة يدويًا على كل متحدث في فيديو عيد ميلادي الخمسين لإعطاء المحتوى الذي يحتاجه.

خاتمة

مع كل العمل الذي قمت به على مدار الاثني عشر شهرًا الماضية حول كل ما يتعلق بالذكاء الاصطناعي، يبدو أن هناك استنتاجًا عالميًا واضحًا: كلما انتظرت أكثر، كلما كان الأمر أرخص وأسهل وأفضل، وكلما زاد احتمال أن يقدمه الذكاء الاصطناعي المفتوح! في غضون ذلك، أعلمني إذا كان لديك أي أسئلة.

فابريس الذكاء الاصطناعي: الرحلة التقنية

كما ذكرت في المنشور السابق، ثبت أن تطوير الذكاء الاصطناعي لفابريس أكثر تعقيدًا مما كان متوقعًا، مما أجبرني على استكشاف العديد من الأساليب المختلفة.

النهج الأولي مؤشر لاما – البحث في المتجهات

تضمّنت تجربتي الأولى في تعزيز قدرات الاسترجاع لدى فابريس للذكاء الاصطناعي استخدام فهرس Llama للبحث المتجه. كان المفهوم بسيطًا: أخذ المحتوى من مدونتي، وتحويله إلى مستندات لانغشين، ثم تحويلها إلى مستندات Llama. ثم يتم تخزين مستندات Llama هذه في فهرس متجه، مما يتيح لي الاستعلام عن هذا الفهرس للحصول على المعلومات ذات الصلة.

ومع ذلك، عندما بدأتُ في اختبار النظام، اتضح لي أن هذا النهج لم يحقق النتائج التي كنت آملها. على وجه التحديد، عندما استفسرت من النظام بأسئلة ذات سياق ثقيل مثل “ما هي أكبر الأخطاء التي يرتكبها مؤسسو السوق؟ وبدلاً من استرداد المحتوى الدقيق الذي كنت أعرف أنه مضمن في البيانات، فقد أرجع إجابات غير ذات صلة أو غير مكتملة.

قادني هذا الفشل الأولي إلى إعادة النظر في منهجي. فقد أدركت أن مجرد تخزين المحتوى في فهرس متجه لم يكن كافياً؛ فقد كانت آلية الاسترجاع بحاجة إلى فهم السياق والفروق الدقيقة في الأسئلة المطروحة. كان هذا الإدراك هو الدرس الأول من بين العديد من الدروس التي ستشكل تطور فابريس للذكاء الاصطناعي.

تخزين المعرفة: تخزين وثائق MongoDB واسترجاعها

مع وضع قيود نهج فهرس Llama في الاعتبار، قمتُ بعد ذلك باستكشاف تخزين مستندات Llama في MongoDB. بدا لي أن مخطط MongoDB المرن وبنيته الموجهة نحو المستندات حلًا واعدًا لإدارة الأنواع المتنوعة من المحتوى الذي جمعته على مر السنين.

كانت الخطة هي إنشاء تجربة بحث أكثر ديناميكية واستجابة. ومع ذلك، سرعان ما واجه هذا النهج مشاكل. فقد فشلت وظيفة البحث، التي كنت أتوقع أن تكون أكثر قوة، في الأداء كما هو متوقع. الاستعلامات التي كان من المفترض أن ترجع المستندات ذات الصلة لم تسفر عن أي نتائج أو محتوى غير ذي صلة.

كانت هذه الانتكاسة محبطة، لكنها أكدت أيضًا درسًا مهمًا: طريقة التخزين لا تقل أهمية عن استراتيجية الاسترجاع. بدأتُ في التفكير في خيارات أخرى، مثل استخدام أطلس MongoDB لعمليات البحث المتجهة، والتي يمكن أن توفر الدقة وقابلية التوسع التي أحتاجها. ومع ذلك، قبل الالتزام بهذا البديل، أردت استكشاف طرق أخرى لتحديد ما إذا كان هناك حل أكثر فعالية.

مسترجع البيانات الوصفية ومخزن المتجهات: البحث عن الخصوصية

كان أحد السبل التالية التي استكشفتها هو استخدام مسترجع البيانات الوصفية مع مخزن متجه. كانت الفكرة وراء هذا النهج هي تصنيف مجموعة كبيرة من المعلومات داخل فابريس للذكاء الاصطناعي ثم استرجاع الإجابات بناءً على هذه الفئات. من خلال هيكلة البيانات باستخدام البيانات الوصفية، كنت آمل في تحسين قدرة الذكاء الاصطناعي على تقديم إجابات محددة وموجهة.

ومع ذلك، كان لهذه الطريقة أيضًا حدودها. فعلى الرغم من أنها بدت واعدة ظاهرياً، إلا أن الذكاء الاصطناعي كافح لتقديم إجابات دقيقة لجميع أنواع الاستفسارات. على سبيل المثال، عندما سألت، “هل المؤلف متفائل؟ فشل النظام في تفسير السؤال في سياق المحتوى ذي الصلة. وبدلاً من تقديم تحليل ثاقب استناداً إلى البيانات الوصفية، فإنه إما أن يقدم إجابات غامضة أو لا يقدم أي إجابات.

علمني هذا النهج درساً قيماً حول أهمية السياق في الذكاء الاصطناعي. لا يكفي مجرد تصنيف المعلومات؛ يجب أن يفهم الذكاء الاصطناعي أيضًا كيفية تفاعل هذه الفئات وتداخلها لتشكيل فهم متماسك للمحتوى. فبدون هذا الفهم العميق، يمكن أن تقصر حتى أكثر أساليب الاسترجاع تطوراً.

هيكلة المعرفة: الفهرس الموجز

مع استمراري في تحسين الذكاء الاصطناعي لفابريس، جرّبتُ إنشاء فهرس SummaryTreeIndex. يهدف هذا النهج إلى تلخيص جميع المستندات في شكل شجرة، مما يسمح للذكاء الاصطناعي بالتنقل عبر هذه الملخصات واسترجاع المعلومات ذات الصلة بناءً على بنية المحتوى.

كانت الفكرة هي أنه من خلال تلخيص المستندات، يمكن للذكاء الاصطناعي تحديد النقاط الرئيسية بسرعة والرد على الاستفسارات بمعلومات موجزة ودقيقة. ومع ذلك، واجهت هذه الطريقة أيضًا تحديات كبيرة. فقد واجه الذكاء الاصطناعي صعوبة في تقديم إجابات ذات مغزى للاستفسارات المعقدة، مثل “كيف تتخذ قرارات مهمة في الحياة؟ فبدلاً من الاستفادة من المحتوى الغني والدقيق المخزن في الملخصات، كانت إجابات الذكاء الاصطناعي في كثير من الأحيان سطحية أو غير مكتملة.

أكدت هذه التجربة صعوبة الموازنة بين الاتساع والعمق في الذكاء الاصطناعي. فبينما يمكن أن توفر الملخصات نظرة عامة رفيعة المستوى، إلا أنها غالبًا ما تفتقر إلى السياق التفصيلي اللازم للإجابة عن الأسئلة الأكثر تعقيدًا. أدركت أن أي حل فعال سيحتاج إلى دمج كل من المحتوى التفصيلي والملخصات عالية المستوى، مما يسمح للذكاء الاصطناعي بالاعتماد على كليهما حسب الحاجة.

هذا هو السبب في أنه في إصدار الذكاء الاصطناعي من Fabrice AI الموجود حاليًا، أجعل الذكاء الاصطناعي يقدم أولاً ملخصًا للإجابة، قبل الخوض في مزيد من التفاصيل.

توسيع الآفاق: فهرس الرسم البياني المعرفي

وإدراكًا مني لمحدودية الطرق السابقة، اتجهت إلى نهج أكثر تعقيدًا: فهرس الرسم البياني المعرفي. تضمّن هذا النهج إنشاء رسم بياني معرفي من نص غير منظم، مما مكّن الذكاء الاصطناعي من المشاركة في الاستعلام القائم على الكيان. كان الهدف هو إنشاء فهم أكثر ديناميكية وترابطًا للمحتوى، مما يسمح للذكاء الاصطناعي لفابريس بالإجابة على الأسئلة المعقدة ذات السياق الثقيل بشكل أكثر فعالية.

على الرغم من وعوده، واجه فهرس الرسم البياني المعرفي عقبات كبيرة. فقد واجه الذكاء الاصطناعي صعوبة في الحصول على نتائج دقيقة، خاصةً بالنسبة للاستفسارات التي تتطلب فهماً عميقاً للسياق. على سبيل المثال، عندما طُرح سؤال “ما هي التقييمات العادلة للبذور والسلاسل أ؟” فشل الذكاء الاصطناعي مرة أخرى في تقديم إجابة ذات صلة، مما يسلط الضوء على صعوبة دمج النص غير المنظم في رسم بياني معرفي متماسك.

وعلى الرغم من فشل هذا النهج في نهاية المطاف، إلا أنه قدم رؤى مهمة حول تحديات استخدام الرسوم البيانية المعرفية في الذكاء الاصطناعي. إن تعقيد البيانات والحاجة إلى سياق دقيق يعني أنه حتى الرسم البياني المعرفي الذي تم بناؤه بشكل جيد قد يواجه صعوبة في تحقيق النتائج المرجوة. كان أحد العوائق الأخرى في فهرس الرسم البياني المعرفي هو سرعته البطيئة. كان وقت الاستجابة للحصول على المستندات ذات الصلة مرتفعًا جدًا بالنسبة لفهرس مخزن المتجهات.

إعادة تقييم البيانات: الجوزاء

بعد عدة انتكاسات، قررت اتباع نهج مختلف من خلال الاستفادة من الذكاء الاصطناعي من Google، Gemini. كانت الفكرة هي إنشاء مجموعات بيانات من ملفات JSON-CSV ثم تدريب نموذج مخصص LLM باستخدام هذه البيانات. كنت آمل أنه باستخدام بيانات منظمة ونموذج تدريب قوي، يمكنني التغلب على بعض التحديات التي واجهت المحاولات السابقة.

ومع ذلك، واجه هذا النهج أيضًا صعوبات. فقد توقفت عملية التدريب بسبب التنسيق غير الصحيح للبيانات، مما حال دون تدريب النموذج بشكل فعال. أكدت هذه الانتكاسة أهمية تكامل البيانات في تدريب الذكاء الاصطناعي. فبدون البيانات المنسقة والمنظمة بشكل صحيح، يمكن أن تفشل حتى النماذج الأكثر تقدمًا في الأداء كما هو متوقع.

قادتني هذه التجربة إلى التفكير في إمكانية استخدام BigQuery لتخزين بيانات JSON، مما يوفر منصة أكثر قابلية للتطوير والموثوقية لإدارة مجموعات البيانات الكبيرة اللازمة لتدريب الذكاء الاصطناعي فابريس بفعالية.

الجمع بين نقاط القوة: وثائق Langchain مع Pinecone

على الرغم من التحديات التي واجهتها حتى الآن، كنت مصممًا على إيجاد حل يسمح للذكاء الاصطناعي فابريس بتخزين واسترجاع المعرفة بشكل فعال. قادني هذا التصميم إلى تجربة مستندات Langchain و Pinecone. تضمّن النهج إنشاء مخزن متجه Pinecone باستخدام مستندات Langchain وOpenAI المضمنة، ثم استرجاع أفضل المستندات المتشابهة بناءً على الاستعلام.

أظهرت هذه الطريقة نتائج واعدة، خاصةً عندما تضمن الاستعلام عنوان المستند. على سبيل المثال، عندما طُرح السؤال “ما هو مفتاح السعادة؟” تمكن الذكاء الاصطناعي من استرجاع وتلخيص المحتوى ذي الصلة بدقة. ومع ذلك، لا تزال هناك قيود، لا سيما عندما يفتقر الاستعلام إلى كلمات رئيسية أو عناوين محددة.

أظهر هذا النهج إمكانية الجمع بين التقنيات المختلفة لتحسين أداء الذكاء الاصطناعي. من خلال دمج مستندات لانغشين مع مخزن بينيكون المتجه، تمكنت من تحسين ملاءمة ودقة استجابات الذكاء الاصطناعي، وإن كان ذلك مع بعض القيود.

تحقيق الاتساق: منشئ GPT OpenAI

بعد استكشاف طرق وتقنيات مختلفة، لجأتُ إلى منشئ GPT الخاص بالذكاء الاصطناعي المفتوح لتوحيد وتنقيح المعرفة المخزنة في فابريس للذكاء الاصطناعي. من خلال تحميل جميع المحتويات في قاعدة معارف GPT، هدفتُ إلى إنشاء منصة أكثر اتساقاً وموثوقية لاسترجاع معرفتي والتفاعل معها.

وقد أثبت هذا النهج أنه من أنجح الأساليب، حيث تمكن الذكاء الاصطناعي من تقديم نتائج أفضل عبر مجموعة من الاستفسارات. كان مفتاح هذا النجاح هو دمج جميع المعارف في نظام واحد ومتماسك، مما سمح للذكاء الاصطناعي بالاعتماد على مجموعة كاملة من المحتوى عند الإجابة عن الأسئلة.

كما ذكرت في منشوري السابق، لم أتمكن من تشغيله على موقعي الإلكتروني، وكان متاحًا فقط للمشتركين المدفوعين في Chat GPT الذي شعرت أنه مقيد للغاية. أيضًا، على الرغم من أنه كان أفضل، إلا أنني لم أحب جودة الإجابات ولم أكن مرتاحًا لإتاحته للعامة.

التنقيح النهائي: مساعدو GPT باستخدام النموذج 4o

جاءت القطعة الأخيرة من الأحجية في تطوير الذكاء الاصطناعي لفابريس مع إدخال مساعدي GPT باستخدام النموذج 4o. مثّل هذا النهج تتويجًا لكل ما تعلمته خلال المشروع. من خلال استخدام قاعدة بيانات متجهة وتنقيح المطالبات، كنت أهدف إلى تحقيق أعلى مستوى ممكن من الدقة والفهم السياقي في استجابات الذكاء الاصطناعي.

تضمنت هذه الطريقة تحميل جميع المعارف التي جمعتها في قاعدة بيانات متجهة، والتي تم استخدامها بعد ذلك كأساس لتفاعلات الذكاء الاصطناعي. أتاحت قاعدة البيانات المتجهة للذكاء الاصطناعي إجراء عمليات بحث أكثر تطوراً، واسترجاع المعلومات بناءً على المعنى الدلالي للاستعلامات بدلاً من الاعتماد فقط على مطابقة الكلمات الرئيسية. وشكّل ذلك تقدماً كبيراً مقارنةً بالمناهج السابقة، مما مكّن الذكاء الاصطناعي من فهم الأسئلة المعقدة والدقيقة والاستجابة لها بشكل أفضل.

كان أحد الابتكارات الرئيسية لهذا النهج هو التحسين الدقيق للمطالبات. فمن خلال صياغة مطالبات مختلفة واختبارها بدقة، تمكنت من توجيه الذكاء الاصطناعي نحو تقديم إجابات أكثر دقة وملاءمة. لم يقتصر ذلك على تعديل صياغة المطالبات فحسب، بل شمل أيضًا تجربة طرق مختلفة لهيكلة الاستفسارات للحصول على أفضل الإجابات الممكنة.

كانت النتائج مبهرة. كان الذكاء الاصطناعي الآن قادراً على التعامل مع مجموعة واسعة من الاستفسارات بدقة عالية، حتى عندما كانت الأسئلة مفتوحة أو تتطلب فهماً عميقاً للسياق. على سبيل المثال، عندما سُئلت: “كيف تتخذ أهم القرارات في حياتك؟ قدم الذكاء الاصطناعي إجابة شاملة وثاقبة، معتمداً على مجموعة متنوعة من المصادر ووجهات النظر لتقديم إجابة شاملة.

كان هذا النجاح تتويجاً لمئات الساعات من العمل وتجارب لا حصر لها. وقد أثبت أنه من خلال المزيج الصحيح من التكنولوجيا والتحسينات الصحيحة، كان من الممكن إنشاء ذكاء اصطناعي لا يمكنه تخزين المعلومات واسترجاعها بفعالية فحسب، بل يمكنه أيضًا التفاعل معها بطريقة مفيدة. كان تطوير مساعدي GPT باستخدام الموديل 4o بمثابة النقطة التي وصل فيها الذكاء الاصطناعي من فابريس إلى مستوى التطور والدقة الذي تصوّرته منذ البداية. تم بعد ذلك دمج واجهة برمجة التطبيقات لمساعدات GPT في مدونتي للسماح للمستخدمين النهائيين بالتفاعل مع الذكاء الاصطناعي من فابريس بالطريقة التي تراها على المدونة الآن.

التأمل في الرحلة

سلّطت عملية تطوير فابريس للذكاء الاصطناعي الضوء على تعقيدات العمل مع الذكاء الاصطناعي، خاصةً عندما يتعلق الأمر بفهم المعلومات ووضعها في سياقها. لقد علمتني هذه العملية أنه لا توجد طرق مختصرة في تطوير الذكاء الاصطناعي – فكل خطوة وكل تكرار وكل تجربة هي جزء ضروري من الرحلة نحو إنشاء شيء فعال حقًا.

واستشرافًا للمستقبل، أنا متحمس لمواصلة تحسين وتوسيع نطاق الذكاء الاصطناعي لفابريس. كما ذكرت في المنشور الأخير، سأقوم بمراجعة الأسئلة المطروحة لاستكمال قاعدة المعرفة حيث توجد ثغرات. آمل أيضًا أن أصدر في نهاية المطاف نسخة تفاعلية تشبهني وتبدو مثلي ويمكنك التحدث إليها.

>