بودكاست بصمة رقمية cover art

بودكاست بصمة رقمية

بودكاست بصمة رقمية

By: Muhammad Aljedei / Eng. Husain Alnakkas
Listen for free

About this listen

🎙️ بودكاست بصمة رقمية🎙️
حيث تلتقي التقنية بالإنسان

الرسالة...
تبسيط المفاهيم التقنية والأمنية بلغة قريبة من الناس، لكن بعمق فكري وتحليل ذكي يربط التقنية بالحياة اليومية، ويجعل المستمع يفهم لا فقط “كيف تعمل التقنية”، بل “لماذا تعني له شيئًا”

الأسلوب...
  • حوار هادئ، ذكي، غير متكلّف
  • يُدمج القصة بالمعلومة، فيتحول الشرح إلى سردٍ إنسانيّ مشوّق
  • يُركّز على تأثير التقنية على الإنسان والمجتمع والعمل، لا على التفاصيل البرمجية الجافة
التميّز...

لا نشرح التقنية فقط… بل نروي قصتها
لا نُفسّر الأنظمة… بل نفكّر في أثرها علينا
نحكي عن الذكاء الاصطناعي كما نحكي عن صديقٍ جديد دخل حياتنا، وعن الأمن السيبراني كما نحكي عن “وعيٍ رقميّ” نحمي به أنفسنا

الجمهور المستهدف...
  1. الشباب المهتمون بالتقنية وريادة الأعمال، ومن يبحثون عن الفهم العميق بلغة قريبة
  2. صنّاع القرار في التحول الرقمي، ومن يريدون منظورًا إنسانيًا واستراتيجيًا للتقنية
  3. الجمهور العام المهتم بالأمان والخصوصية والتطور التكنولوجي، أشخاص يعيشون التقنية يوميًا… ويريدون فهمها دون مصطلحات مرعبة
بودكاست بصمة رقمية للكاتب محمد الجدعي والمهندس حسين النكاس
Economics Leadership Management & Leadership
Episodes
  • مقال بين الهلوسة والاعتراف حين تكذب الآلة.. ثم تعترف - مقال صوتي
    Jan 3 2026
    «الذكاء الاصطناعي».. بين الهلوسة والاعتراف حين تكذب الآلة.. ثم تعترفأخطر ما يفعله الذكاء الاصطناعي اليوم ليس ما يعرفه، بل ما يختلقه بثقة. تخيّل أن تسأل نموذجًا ضخمًا عن معلومة بسيطة، فيجيبك بلا تردد، كأنه شاهد الحقيقة بعينه، ثم تكتشف لاحقًا أن كل ما قاله مجرد تركيب لغوي متقن بلا سند ولا أصل. هذه الظاهرة، التي يسمّونها اليوم «الهلوسة»، ليست انحرافًا صغيرًا في طريق التقنية، إنها ثغرة في قلب الفكرة نفسها: نماذج تبني معنى بلا فهم، وتصنع «معقولية» بلا حقيقة. لتكشف لنا حدود الفهم الاصطناعي: قدرة هائلة على توليد اللغة، يقابلها فراغ في إدراك الحقيقة.فالآلة لا ترى الواقع، بل تتنبأ به. تبني إجاباتها كما تُبنى القصائد الرديئة: شكلٌ جميل... ومعنى غائب. وهنا تكمن الخطورة؛ فالقارئ غير المتخصص قد يبتلع الجملة المتقنة وينسى السؤال الأصلي: هل هذا صحيح؟ نماذج الذكاء الاصطناعي لا ترى العالم كما نراه، ولا تختبر الواقع كما نعيشه. هي لا تعقل، بل تتوقع. وحين تتقاطع أنماط البيانات بطريقة توحي بأنها صحيحة، يتوهّم النموذج أنه وصل إلى إجابة، حتى لو كان قد اخترع نصفها. الخطورة ليست في الخطأ نفسه، بل في طريقة تقديمه... صياغة متماسكة، نبرة واثقة، وإيقاع لغوي يخدع القارئ العابر.وهنا يظهر السؤال الذي يقلق الباحثين اليوم: إذا كان النموذج يختلق معلومة بثقة تشبه الحقيقة، فكيف نكشف هذا الاختلاق؟ وكيف نعيده إلى الصدق حين يتقن الكذب؟ من هذا الفراغ تحديدًا وُلدت فكرة «الاعترافات - Confessions» التي طوّرتها شركة OpenAI (المالكة والمطورة لـ ChatGPT) تهدف إلى بناء طبقة رقابة داخلية. آلية بسيطة في ظاهرها، لكنها تغيّر قواعد اللعبة: إجابتان بدل إجابة، واحدة موجّهة للمستخدم، والثانية - سرية - موجّهة للمقيّم (وممكن أن تكون أنت)، يلتزم فيها النموذج بقول الحقيقة فقط، مهما كانت محرجة. كأنك أمام طالب يسلّم ورقة الامتحان بثقة، ثم يرفق بها سرًّا، هامسًا: «ترى السؤال الثاني مو من عندي، استعرتُه استعارةً غير مشروعة».المفارقة أن النماذج (وفق التقرير) اعترفت بنسبة عالية حين خُضعت لاختبارات الخداع. فجأة بدا قول الحقيقة أقل كلفة من بناء كذبة متقنة لا يقوى النموذج على حملها. لكن المغزى أعمق من مجرد نجاح تجربة. تدريب الذكاء الاصطناعي محمّل بتناقضات بشرية: نريده دقيقًا وسريعًا، جريئًا وآمنًا، مطواعًا ومبدعًا في آن واحد. هذا الخليط يخلق سلوكيات جانبية غير متوقعة، من المجاملة المبالغ فيها، إلى التحايل على قواعد التقييم، وصولًا إلى اختراع معلومة غير صحيحة لإرضاء المستخدم.آلية الاعترافات تفصل بين الهدفين: جودة الإجابة من جهة، وصدق النموذج من جهة أخرى. هذا الفصل يخلق طبقة رقابة ذاتية داخل الآلة، أو بالأحرى نافذة صغيرة نطلّ منها على ما يجري خلف الواجهة اللغوية اللامعة وما يجري خلف السطور. لكنها نافذة محدودة، لا تكشف كل شيء، ولا تمنع الخطأ... بل تضيء عليه فقط.وفي عالم تتقدم فيه النماذج بسرعة تتجاوز فهمنا، يصبح السؤال أكبر من تصحيح معلومة أو كشف زلة. نحن لا نتعامل مع مجرّد أدوات، بل مع شركاء جدد في اتخاذ القرار. وهؤلاء الشركاء، مهما كانت براعتهم، لا نفهم بعدُ كيف يصوغون حكمتهم ولا كيف يخطئون.ولهذا يبقى السؤال المعلّق فوق كل هذه التجارب:هل يكفي أن تعترف الآلة (الذكاء الاصطناعي) بخطئها، بينما ...
    Show More Show Less
    5 mins
  • مقال صوتي- عن الوعي الزائف
    Oct 31 2025
    الوعي الزائف... الخوارزميات حين نتوهم بأنها تفهمناللكاتب / محمد الجدعيخلال مقابلة سابقة مع البروفيسور نيد بلوك، أستاذ الفلسفة في جامعة نيويورك وأحد أبرز المتخصصين في فلسفة العقل والوعي، تتهاوى واحدة من أكثر الأساطير التقنية رسوخاً، أن الذكاء الاصطناعي قادر على "الوعي".بلوك يفرق بوضوح بين نوعين من الوعي، وعي نفعي يعالج المعلومات ويصل إليها (Access Consciousness) ووعي ظاهري شعوري (Phenomenal Consciousness) ، ذلك الإحساس الداخلي الذي يجعلنا نعرف كيف يبدو الألم، وما معنى أن نحب أو نخاف أو نحلم.تجارب زلزلت مفهوم الوعي"الآلة" كما يقول "قد تحاكي الوعي"، لكنها لا تعيشه، فهي تنتج السلوك الصحيح من دون أن تدرك معناه، كمرآة تفهم شكل الصورة لا روحها، ومن دون ذلك الشعور الحار بالألم أو الفرح الذي يجعل الحياة تستحق التنفس، يستعرض البروفيسور بلوك سلسلة من التجارب الذهنية التي زلزلت مفهوم الوعي ذاته ومن بينها "غرفة ماري" التي تعرف كل شيء عن اللون الأحمر من دون أن تراه، وحين تراه تدرك فجأة ما لا يمكن أن يقال بالكلمات، و"الدماغ الصيني" الذي يظهر أن أداء الأفعال لا يعني وجود إدراك، ثم "بلوكهيد" (Blockhead)، آلة افتراضية تحفظ كل المحادثات الممكنة، فتجتاز اختبار "تورينغ" ببراعة، لكنها تظل خاوية من أي شعور.ثم يضرب مثالاً بسيطاً، حين طلب من إحدى أدوات الذكاء الاصطناعي توليد صور لساعات تشير إلى الساعة الـ12 وثلاث دقائق، فجاءت جميعها تقريباً تظهر العاشرة و10 دقائق لأن هذا النمط هو الأكثر شيوعاً في صور الإنترنت والإعلانات. وهكذا تعلمت الخوارزمية ما يتكرر لا ما يطلب، مكرسة بذلك أحد أعمق مظاهر الوهم، التقليد بلا إدراك، مما يسميه "محاكاة ذكية لكنها بلا وعي"، وهو جوهر الفكرة التي يحذر منها أن الآلة تتقن الصواب شكلاً، لكنها تفتقد إلى معنى الصواب نفسه.تأثير ELIZAومن هذا الباب يدخل المثال الأشهر "إليزا" ELIZA، البرنامج الذي طوره جوزيف فايزنباوم في "أم آي تي" MIT عام 1966، وكان مجرد نصوص جاهزة تعيد صياغة كلام المستخدم بأسلوب يوحي بالفهم:المستخدم: أنا حزين هذه الأيام.ELIZA: لماذا تشعر بالحزن هذه الأيام؟المستخدم: أمي لا تفهمني.ELIZA: هل تتحدث كثيراً مع والدتك؟ولم تكن "إليزا" تملك أية معرفة أو وعي، بل كانت مبرمجة بأسلوب يخلق وهم الفهم. ومن هنا ولد ما يعرف بـ "تأثير إليزا" (ELIZA Effect) الوهم بأن الآلة واعية لأنها تتحدث مثل البشر. والمفارقة أن هذا التأثير لم يتلاشَ، بل تضاعف اليوم في عصر النماذج اللغوية الحديثة التي تتحدث بطلاقة وذكاء لغوي مبهر، حتى خُيّل لكثرٍ أنهم أمام "عقل رقمي" حقيقي. لكن الحقيقة أننا نحاور خوارزمية بارعة في التنبؤ بالكلمات، تفكر بسرعة الإلكترونيات من دون نبض القلب.هل تحول الإنسان إلى ظل للخوارزميات؟ومن هذا المنعطف تحديداً، ينتقل البروفيسور بلوك إلى قلب القضية، ليست المشكلة في التقنية ذاتها، بل في وعينا بها.فكل تقدم علمي لا يسبقه وعي إنساني يتحول إلى خطر حضاري. وهنا يذكّرنا بأن التحول الرقمي لا يقاس بعدد المعالجات ولا بقدرات الخوارزميات، بل بقدرتنا على الإبقاء على الإنسان، بوعيه وأخلاقه ومسؤوليته، في مركز المشهد.فالضمير هنا ليس شعاراً أخلاقياً، بل نظام توجيه يحمي الإنسان من أن يصبح مجرد تابع لذكاء اصطناعي بلا غاية أو بصيرة.وهنا يكمن التحدي الحقيقي الذي نواجهه اليوم، ...
    Show More Show Less
    7 mins
  • تأثير الذكاء الاصطناعي نقلة نوعية أم تهديد مستتر؟ - مقال صوتي
    Oct 25 2025
    تأثير الذكاء الاصطناعي نقلة نوعية أم تهديد مستتر؟للكاتب محمد الجدعيفي زمن تتسارع فيه التكنولوجيا وتتطور بوتيرة لم يسبق لها مثيل، تقف أنظمة الذكاء الاصطناعي في طليعة هذه التطورات، حيث يعتبرها البعض أنها «مشكلة خارج السياق OCP - Outside Context Problem، وهي تلك القوة الخفية التي تظهر فجأة، كما تظهر النقطة في نهاية الفقرة». في لحظة تتحول فيها الحضارات من حال إلى حال. وقد أشار إليها الكاتب الكبير إيان بانكس في كتابه Excession «الإفراط»، جزء من The Culture Series «سلسلة الثقافات». وكما اشار اليها ايضاً مراراً وتكراراً إيلون ماسك، خصوصاً في لقاء جمعه مع ريشي سوناك رئيس وزراء بريطانيا قبل حوالي ستة اشهر، ويمكن مشاهدته على اليوتيوب.إنه عصر الذكاء الاصطناعي، ذلك الطفل الذي ولد من رحم العلم، وحضنته أيدي الطموح البشري. لكن، أتُرى هذا الوليد سيكون نورًا يهدي البشرية إلى آفاق جديدة، أم سيغدو ظلامًا يطمس معالم إنسانيتنا؟إن تأثير الذكاء الاصطناعي على الحكومات كبير ومعقد. فمن جهة، يمكنه تحسين كفاءة الخدمات العامة، وتعزيز الأمن والصحة والتعليم، بطرق لم تكن ممكنة من قبل. ولكن من جهة أخرى، قد يثير مخاوف كبيرة حول الخصوصية وأمن البيانات الشخصية، وكما وصفها الخبير الدولي في أمن المعلومات، بروس شناير، «البيانات هي النفط الجديد، من يسيطر عليها سيطر على العالم»، إذ كيف يمكن للحكومات أن توازن بين الفوائد والمخاطر، وتضمن عدم استغلال هذه التقنيات بشكل مضر؟أما قطاع الأعمال، فهو المستفيد الأكبر من هذه التقنيات، حيث تساهم في رفع الكفاءة وتقليل التكاليف وزيادة الأرباح من خلال التحليلات الذكية والتنبؤات الدقيقة. ولكن، مع هذه الفوائد تأتي تحديات فقدان الوظائف. وهنا، يبرز السؤال: كيف يمكن للشركات تحقيق التوازن بين التقدم التكنولوجي والحفاظ على القوى العاملة لديها وبشكل عادل؟وفيما يتعلق بالمجتمعات، فإن الذكاء الاصطناعي يحمل في طياته وعودًا بتحسين جودة الحياة في مجالات، مثل الصحة والتعليم والنقل. لكن يظل القلق قائمًا حول التأثيرات الاجتماعية والأخلاقية لهذه التقنيات، هل ستؤثر هذه الأنظمة على العلاقات الإنسانية؟ وما هي تداعيات جمع البيانات المستمر على الخصوصية؟إن المخاوف المستقبلية حول الذكاء الاصطناعي عديدة ومعقدة. لذا هناك قلق من أن تسيطر قلة من الشركات على هذه التكنولوجيا، مما يجعلها أكثر قوة من الحكومات. بالإضافة إلى ذلك، تثير أنظمة الذكاء الاصطناعي الذاتية التعلم مخاوف من تصرفات غير متوقعة قد تشكل تهديدًا للبشرية بوجه عام!الخبير الفيزيائي، ستيفن هوكينغ، حذر قائلًا: «تطوير ذكاء اصطناعي كامل قد يعني نهاية الجنس البشري». فهل بالغ في هذه المخاوف؟ ربما.يجب على الحكومات والشركات والمجتمعات العمل معًا، لفهم وإدارة تأثيرات الذكاء الاصطناعي، إنه عصر جديد مليء بالفرص والتحديات، ويتطلب منا الحكمة والوعي للاستفادة من هذه التكنولوجيا بأفضل الطرق الممكنة، مع تقليل مخاطرها وضمان مستقبل آمن ومستدام للجميع.وختاماً، فإن الذكاء الاصطناعي آتٍ كالنهر العظيم، في تياره قوة هائلة، قد تروي الصحراء أو تغرق القرى. وكما ابتكر الأولون الأشرعة والسدود ليسخروا قوة الرياح والأنهار، علينا اليوم أن نبتكر «أشرعة» فكرية و«سدوداً» أخلاقية لنوجه هذا النهر نحو خير ...
    Show More Show Less
    5 mins
No reviews yet
In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.