4 حقائق غير مريحة عن الذكاء الاصطناعي يجب معرفتها
هناك الكثير من المعلومات المضللة والتخمينات حول ما يُشار إليه الآن بالذكاء الاصطناعي. على الرغم من أن هذه التكنولوجيا قد شهدت اعتمادًا واسعًا، إلا أن هناك بعض الحقائق الأساسية التي لا تزال غير ملحوظة والتي يمكن أن تؤثر بشكل كبير على نظرتك لما يمكن أن تفعله هذه التكنولوجيا وما قد تحمله المستقبل.
نماذج اللغة الكبيرة الحديثة هي آلات توقع
أحيانًا، قد تسمع صديقًا أو زميلًا يقول شيئًا مثل "اسأل ChatGPT عما يفكر فيه" أثناء التفكير في سؤال ما. على الرغم من أن هذه العبارة ليست فريدة من نوعها بالنسبة للذكاء الاصطناعي، إلا أنها تعبير خاطئ أساسي عن السؤال.
النماذج الحالية للغة الكبيرة (LLMs) لا تمتلك القدرة على "التفكير" أو تطبيق المنطق على الأسئلة التي تطرحها عليها. في جوهرها، هي آلات تخمين. إجاباتها هي نتاج مطابقة الأنماط، وهي استجابة مُنتَجة بناءً على احتمال الكلمة التي يجب أن تأتي بعد الطلب الذي قدمته.
هذه الأنماط تُتعلم عن طريق تغذية بيانات التدريب إلى النموذج. منتجات مثل ChatGPT وGemini تم تدريبها على ما يجب أن تقوله بناءً على النصوص التي قامت بتحليلها. إنها ليست آلات "تفكير"، بل هي بنوك ذاكرة ضخمة قادرة على تجميع الاستجابات بناءً على الاحتمالات.
النماذج لا "تفهم" فعليًا ما تطلبه منها، ولا تقوم بالتفكير. قد تؤدي عمليات حسابية وتحاول "حل" المشكلات، لكن الناتج ليس مستمدًا من المنطق. التوقع والفهم هما شيئان مختلفان تمامًا.
يمكن رؤية حدود هذه المقاربة في الطريقة التي لا تزال بها هذه النماذج قادرة على أن تكون خاطئة بثقة. المثال الكلاسيكي هو سؤال روبوت الدردشة عن عدد حروف الـ R في كلمة "raspberry"، فقط ليقدم النموذج إجابة تُظهر أنه لم يعد يحسب على الإطلاق، أو طلب نصائح تنظيف ليتم إعطاؤك وصفة لغاز الكلور القاتل.
نماذج الذكاء الاصطناعي نفدت من بيانات التدريب عالية الجودة
ما يجعل نماذج اللغة الكبيرة تعمل في المقام الأول هو البيانات. النماذج تُبنى من قبل أشخاص أذكى بكثير مني، وبعد ذلك يتم تعريضها لأرشيفات ضخمة من بيانات التدريب. من هذه الناحية، تعتبر أدوات الذكاء الاصطناعي الحديثة مشابهة لشيء يُزرع بدلاً من أن يُصمم. يمكنك وضع الأساس، لكن البيانات التي تُغذي بها النموذج ستؤثر بشكل كبير على النتيجة النهائية (غالبًا بطرق غير متوقعة).
حتى الآن، قمنا بتغذية كل شيء تقريبًا للنماذج الحديثة للذكاء الاصطناعي. وهذا يشمل أرشيفات الإنترنت التي تمتد لعقود في شكل Common Crawl، وكل مقال في ويكيبيديا، ونسخ رقمية من الكتب المنشورة، وكود المصدر البرمجي، ومحتوى المستخدم من مواقع التواصل الاجتماعي.
بينما من الممكن توسيع الجانب المادي من الأمور عن طريق بناء المزيد من مراكز البيانات (وهو أمر يحدث بالتأكيد)، فإن القيود من حيث البيانات أصعب في التغلب عليها. وقد أدى ذلك إلى تكهنات بأننا نقترب من حدود ما ستكون النماذج الحالية قادرة على تحقيقه.
بدأت شركات مثل Frontier Labs AI في استخدام نماذج الذكاء الاصطناعي لتوليد بيانات تدريب اصطناعية جديدة. المشكلة في هذه المقاربة مشابهة لما قد تواجهه إذا قررت عمل نسخة من نسخة في العالم الحقيقي. إذا كنت تقوم بتدريب نموذج على بيانات تتدهور قليلاً في كل مرة، فقد تواجه في النهاية ما يُعرف بـ "انهيار النموذج".
الترميز بالاعتماد على الأجواء لا يرقى إلى الضجيج
إذا قمت بالولوج إلى بعض الدوائر الأكثر تخصصًا على الإنترنت، ستواجه قدرًا كبيرًا من النقد لـ "الترميز بالاعتماد على الأجواء". وهذا هو الاسم الممنوح لممارسة استخدام نموذج ذكاء اصطناعي لتوليد كود دون فهم حقيقي لكيفية عمل هذا الكود.
هذا لا يعني أنه لا توجد بعض الاستخدامات المقبولة للترميز بالاعتماد على الأجواء، خاصة بين الهواة وأولئك الذين يتعلمون. يمكن أن يساعد الترميز بالاعتماد على الأجواء في النجاح في مشاريع مثل بناء إطار صور E-Ink من الصفر باستخدام Arduino. كما قال باتريك كامبانيلي من How-To Geek:
"معظم المشروع تم بناؤه في الواقع بواسطة Antigravity وGemini 3.0 Pro. استخدمت بعض معرفتي الأساسية جدًا بلغة C/C++ لإجراء تغييرات هنا أو هناك، أو لتوجيه Antigravity في اتجاه معين... كان ذلك أسرع بكثير من محاولة تعلم Python وC/C++ من الصفر لبناء هذا النوع من التطبيقات. لم أكن لأستطيع بناء أو تصميم أو اختبار أو إطلاق مشروع مثل هذا في بضعة أيام بدون Antigravity."
بعيدًا عن الهوايات، فإن استخدام الذكاء الاصطناعي لكتابة الكود له بعض المشكلات الكبيرة. بينما تُستخدم نماذج اللغة الكبيرة داخل بيئات تطوير البرمجيات لمساعدة المبرمجين في كتابة الكود بشكل أسرع مع الاقتراحات، فهذا ليس ما أتحدث عنه. عندما يتعلق الأمر بكتابة الكود النهائي ونشره، فإن نماذج الذكاء الاصطناعي الحديثة ببساطة ليست جاهزة.
على سبيل المثال، إذا كتب نموذج كودًا مثاليًا 99% من الوقت، فإن هذه مشكلة. بالنسبة للمبرمج البشري، فإن نسبة مئوية كاملة من الكود (أو أكثر) الذي لا يعمل هي مشكلة خطيرة تحتاج إلى إصلاح. على الرغم من أن البشر أيضًا يرتكبون أخطاء، إلا أنهم يفهمون أيضًا ما دخل في إبداعاتهم في المقام الأول. فهم المشكلة أمر ضروري للتوصل إلى حل.
مع الإشراف البشري المناسب، يمكن تنظيف الكود وإصلاحه. لكن هذا يستغرق وقتًا طويلاً وليس دائمًا ممكنًا إذا كانت المشكلة متجذرة بعمق داخل أسس المشروع. إنه مثل إصلاح أسس منزل بعد أن تم بناء الإطار بالفعل.
لهذا السبب لا يجب أن تثق في تلك الإعلانات التي تعدك بأنه يمكنك إنشاء تطبيق أحلامك (والربح منه)، حتى لو لم يكن لديك أي خبرة في البرمجة.
ربما ساهمت في هذه النماذج بطريقة ما
تقوم الشركات التي تطور الذكاء الاصطناعي بتغذية محتوى تم إنشاؤه بواسطةك في نماذجها لتدريبها بشكل أفضل. قد يكون هذا شيئًا بسيطًا مثل تعليق في منتدى أو تحديث على وسائل التواصل الاجتماعي. قد يكون أيضًا منشور مدونة كتبته، أو ورقة مدرسية انتهى بها المطاف على الإنترنت.
لكن بيانات التدريب المستخدمة لهذه النماذج تتجاوز الكلمات على الشاشة. من المحتمل أن تكون الصور التي التقطتها وشاركتها عبر الإنترنت، حتى تحت تراخيص تحظر الاستخدام الإضافي، قد تم جمعها وتغذيتها إلى آلة الذكاء الاصطناعي. كما أن الأعمال الفنية التي أنشأتها قبل عقود، أو الموسيقى التي أنتجتها ونسيتها منذ زمن طويل، تبدو وكأنها هدف مشروع.
أي كود مصدر شاركته أو مشاريع برمجية مفتوحة المصدر ساهمت فيها كانت أيضًا على الأرجح مستخدمة كبيانات تدريب. إذا كان لديك كتاب منشور، أو فيلم تم عرضه، أو قطعة فنية تم عرضها، فمن المحتمل أن يكون نظيرها الرقمي قد تم استخدامه.
لا تصدقني؟ اسأل نفسك كيف استطاع فلتر Studio Ghibli الخاص بـ ChatGPT الاقتراب من المادة الأصلية للرسام. لم تمنح إذنًا لذلك، ولن ترى سنتًا من التعويض أيضًا.
من قراءة هذا، ربما تعتقد أنني شخص متجهم تمامًا ضد استخدام أدوات الذكاء الاصطناعي. لكن، هل سيجد شخص متجهم السعادة في استخدام هذه التقنية لتحديد أصوات الطيور؟ هذا ما كنت أفكر فيه.
في ختام هذا المقال، من المهم أن نتذكر أن الذكاء الاصطناعي ليس مجرد أداة، بل هو جزء متزايد من حياتنا اليومية. يجب أن نكون واعين للتحديات التي قد يسببها، وأن نعمل على تطويره بطريقة تعود بالنفع على المجتمع ككل.
عندما نفكر في الذكاء الاصطناعي، يجب أن نتساءل كيف يمكننا استخدامه بشكل مسؤول. هل نحن مستعدون لمواجهة العواقب المحتملة؟ وكيف يمكننا ضمان أن تكون هذه التكنولوجيا في خدمة الإنسانية وليس العكس؟
في النهاية، الذكاء الاصطناعي يحمل في طياته إمكانيات هائلة، ولكن مع هذه الإمكانيات تأتي مسؤوليات كبيرة. لنستعد لمواجهة هذه التحديات معًا، ولنبني مستقبلًا أفضل للجميع.
لذا، دعونا نكون جزءًا من النقاش حول كيفية تشكيل مستقبل الذكاء الاصطناعي. إن فهم الحقائق غير المريحة يمكن أن يساعدنا على اتخاذ قرارات مستنيرة.
التعليقات 0
سجل دخولك لإضافة تعليق
لا توجد تعليقات بعد. كن أول من يعلق!