المسيخ الخوارزمياتي الجديد | 1 مارس 2026
المسيخ الخوارزمياتي الجديد
بداية أضع بين
أيديكم ترجمة بيان سام ألتمان الرئيس التنفيذي لشركة أوبن أيه آي OpenAIفي حسابه على منصة X:
"الليلة، توصلنا إلى اتفاق مع وزارة الحرب لنشر نماذجنا داخل شبكتهم
المصنَّفة (السرّية).
في جميع تفاعلاتنا، أبدت وزارة الحرب
احترامًا عميقًا لمعايير السلامة ورغبةً في الشراكة لتحقيق أفضل نتيجة ممكنة.
تمثل سلامة الذكاء الاصطناعي والتوزيع
الواسع لفوائده جوهر مهمتنا. ومن أهم مبدأين لدينا في مجال السلامة: حظر المراقبة
الجماعية المحلية، وتحميل الإنسان المسؤولية عن استخدام القوة، بما في ذلك أنظمة
الأسلحة ذاتية التشغيل. وتوافق وزارة الحرب على هذه المبادئ، وتعكسها في القانون
والسياسات، وقد ضمَّنّاها في اتفاقنا.
سنقوم أيضًا ببناء ضمانات تقنية لضمان
تصرّف نماذجنا كما ينبغي، وهو ما رغبت به وزارة الحرب كذلك. وسننشر مهندسين
ميدانيين (FDEs) لدعم نماذجنا وضمان سلامتها، كما سيتم النشر عبر الشبكات السحابية فقط.
نطلب من وزارة الحرب تقديم الشروط نفسها
لجميع شركات الذكاء الاصطناعي، ونرى أنه ينبغي للجميع أن يكونوا مستعدين لقبولها.
وقد عبّرنا عن رغبتنا القوية في رؤية الأمور تتجه نحو خفض التصعيد بعيدًا عن
الإجراءات القانونية والحكومية، وباتجاه اتفاقيات معقولة.
نظل ملتزمين بخدمة البشرية جمعاء بأفضل ما
نستطيع. فالعالم مكان معقّد، وفوضوي، وأحيانًا خطير".
رابط البيان https://x.com/sama/status/2027578652477821175?s=20
صورة بانورامية
بداية، ليس سام ألتمان رجلا
خاملا أو من رجال الظل في وادي السيليكون، بل كانت له بعض المواقف التي توحي بأننا
أمام شخصية تتبنى خطابا أخلاقيا من عالم التكنولوجيا المعروف بكونه العش الأول للتجارب
العسكرية الأمريكية خصوصا. بدأ سام ألتمان الذي أطلق تطبيق Loopt ثم كان أحد صناع المؤسسين للشركات عبر Y Combinator التي تعرف بكونها
"startup
accelerator"
وهو ما يعني أنها "مُسرِّعة أعمال" أي أنها شركة تساهم فعليا في نمو
شركات يبدو أن مستقبلا واعدا ينتظر تلك الشركات، ويكون الإسهام الفعلي بتدريب تلك
الشركات الصغيرة وتطويرها تطويرا مكثفا لتنتقل من كونها شيئا صغير ناشئا، إلى لاعب
فاعل وقوي في السوق المحلي -الأمريكي- والعالمي. وأمثلة ذلك شركات Airbnb،Stripe،Dropbox المعروفة.
لكن النقلة النوعية الحقيقية في مسار ألتمان وتأثيره، كان عبر
شركة OpenAI التي تشتهر
بكونها صاحبة ChatGPT.
كان ألتمان من المؤسسين لـ OpenAIعام 2015 رفقة عدد من الأسماء المهمة في وادي السيليكون أشهرهم
على الإطلاق إيلون ماسك صاحب Tesla، SpaceX، X (تويتر
سابقًا)، The
Boring Company، و xAI
المعروفة بأشهر منتجاتها Grok. ولا يمكن فهم أهمية هذه المعلومات إلا في سياق معرفة ما يعنيه
وادي السيليكون من أهمية للولايات المتحدة الأمريكية وما يمثله من عَصَبٍ لريادتها
التكنولوجية، وهو ما يتبدى فيما ذكره والتر إيزاكسون صاحب سيرة ستيف جوبز، وذلك
العشاء الشهير الذي أقامه الرئيس الأمريكي الأسبق باراك أوباما والمعروف بعدة
أسماء يمكن العودة إليها والبحث عبرها لمعرفة أسباب ومآلات ذلك اللقاء/العشاء
والأمسية:
Obama–Silicon Valley Dinner
(2011)
أو
Silicon Valley Tech Leaders Dinner
والمعروف أحيانا -أيضا-
باسم
The 2011 Woodside Tech
Roundtable
حسنا، ما علاقة OpenAI بهذا كله؟.
نشأت هذه الشركة -ديسمبر
2015- وفق مبدأ بدا "إنسانيا وأخلاقيا" آنذاك، فقد كانت تواجه الوحش
المتعاظم لشركة جوجل ومختبرها DeepMind للذكاء الاصطناعي. وكما هو معروف عن شركتي Meta وGoogle عبر عدة فضائح وتسريبات، أن الرائد لهما هو الربح، والربح المطلق.
لذلك لم يكن من أهمية لخصوصية الناس -يمكن العودة إلى شهادات زوكبيرج في الكونغرس
سابقا، وسياق محاكمته مؤخرا- لذلك رأى هؤلاء الرواد "الأخلاقيون" أن
يقوموا بإنشاء كيان مضاد يكفل بحماية خصوصية العميل/المستخدم، وأن الذكاء
الاصطناعي يجب أن يكون طوع الاستعمال البشري وخدمته في منفعته، وأنه لا ينبغي بحال
من الأحوال أن يكون سلاحا احتكاريا بيد السلطة أو الشركات على السواء.
هذه المبادئ التي بدت
"قمة في الأخلاقية ودفاعا عن الإنسان" أمام الهيمنة الفعلية لشركات
التكنولوجيا والحكومة الأمريكية وأصحاب السلطة فيها؛ لم تلبث أن انزلقت رويدا
رويدا بعد إطلاق ChatGPT في نهاية
نوفمبر وبداية ديسمبر 2022. لكنه لم يلبق أن تحول إلى نسخة تجارية مدفوعة بعد
شهرين من إطلاقه فحسب، وذلك في فبراير 2023م، لتتحول روح الشركة من
"الاخلاقية غير الربحية" إلى تبرير الربح الهائل والجنوني باعتباره
"فرصة استثمارية وتطويرا للمنتج". لم يكن هذا الإنزلاق بسيطا أو عابرا،
فبعد تحول الشركة من أخلاقيتها المزعومة والمبادئ التي نشرتها والتي جعلت الناس
يثقون بها نظرا للتجارب المريرة المتعلقة باستباحة جوجل وميتا لخصوصية الناس واعتبار
البيانات الخاصة متجا قابلا للبيع، فضلا عن كونه عيِّنة قابلة للتجريب ومختبرا
مصغرا كذلك. فبعد البيان الذي نشره ألتمان في تمام 6:56 AM · Feb 28, 2026 ، لم تعد OpenAI مجرد فاعل بسيط في معادلة الربح-العسكرة،
بدل غدت رائدا فيها، وهو ما لم يعد "انحرافا" عن المبدأ الذي نشأت وفقا
له فحسب؛ بل نقيضا مباشرا وتاما له.
قراءة في معاني
البيان
يبتدئ البيان بإعلام المتلقي بأن الشركة
شاركت معلوماتها وأنظمتها وأتاحت حق الوصول إلى البيانات لوزارة الحرب الأمريكية،
مع تطمين للمتلقي بأن وزارة الحرب أبدت "احتراما عميقا لمعايير السلامة"
التي من ضمنها بلا شك، خصوصية المستخدم. ولفهم ما تعنيه خصوصية المستخدم، فإن
غيابها يعني استباحة المستخدم -المستباح أصلا- ولكن هذه المرة "شهارا
جهارا" بلا داعٍ لأن يتم إبلاغه بشيء أو استئذانه وموافقته المسبقة.
يرتكز خطاب/بيان ألتمان على التهدئة
وامتصاص غضب ووعي المتلقي بعبارات تطمينية يدرك الأمريكي أكثر من غيره كذبها
وبطلانها. فالنمط المتكرر لشركات التكنولوجيا التي لا نقول بأنها تتخلى عن
مبادئها، بل هي تبيع مبادئها لمن يدفع أكثر، في مشهد مكرر مع زوكبيرج سابقا وجوجل
وغيرها من الشركات، ولا ننسى في هذا السياق تجربة سنودن -الوثائقيات والأفلام عنه
والتي شارك فيها بنفسه متوفرة ومفيدة في هذا السياق- وما بينته الوثائق التي سربها
فيما يتعلق بخصوصية الشعب الذي يعد فأر التجارب الأولى للقيادة العسكرية الأمريكية
قبل أن يتم توسيع هذه التجارب وتصديرها أو لنقل "عولمتها"، كما فعلت
إسرائيل تماما فيما يتعلق بالبيجر.
لم يكن بيان ألتمان برئيا ولا ساذجا أيضا،
فهو يطمئن المستخدمين بلغة تحاول الإبقاء على ثقتهم، عبر استراتيجية التأطير
الأخلاقي. والمثال على هذه الاستراتيجية هي الحرب على العراق، فنحن لن نقوم بقتل
"المدنيين" في العراق، بل سنقوم بالقضاء على "نظام ديكتاتوري"
وسنقوم بـ "نشر الحرية والديمقراطية" ونقضي على البلد الذي يملك
"أسلحة دمار شامل"؛ فلا يغدو الأمر متعلقا بتدمير بلد وقتل الإنسان فيه،
بل يغدو عملا أخلاقيا خيِّرا يسعى لكل جميل
في هذا العالم. فهو ببيانه يقول بأن وزارة الحرب لن تستخدم بياناتكم أيها الناس، ولو حدث أن كان
هناك خطأ في استخدام القوة -لأن من مهام وزارة الحرب القتل بلا شك، والقوة هنا
تتضمن الموت الذي يكون حدثا "مفاجئا وحظا عاثرا" لو كان في الداخل،
ولأهداف نبيلة وحسنة في الخارج- فإن المسؤولية لا تقع على عاتق الذكار الاصطناعي،
بل على الإنسان. كما أنه يؤكد وجود مهندسين مراقبين وضابطين لعمليات الذكاء
الاصطناعي كي لا يتوحش -بغير قصد طبعا- فضلا عن وجود الضمانات التقنية لذلك كله.
ومن المثير للطرافة في البيان، أن ألتمان
يدعو أن يتم تقنين الاتفاق الذي جرى بينه وبين وزارة الدفاع، ويتم تطبيقه على بقية
شركات الذكاء الاصطناعي، وهو ما يذكرنا ببيت دريد بن الصِّمة
وهل أنا إلاَّ من
غزيةَ إن غوت غويتُ وإن ترشد غزيةُ
أرشدِ
لكنه يستعين بالمعري أيضا:
هذا جناه أبي
عليَّ وما جنيتُ على أحد
فعبارة "..وتوافق وزارة الحرب على هذه
المبادئ، وتعكسها في القانون والسياسات" كأنما هو تملص من اختيار الشركة
الانتفاع من الاتفاق مع وزارة الحرب، خصوصا بعدما رفضت شركة Anthropic صاحبة الذكاء الاصطناعي Claude الاتفاق مع وزارة الحرب،
بل وعارضته لأنه لا يلتزم فعليا ليس فقط بخصوصية المستخدمين، بل لا يلتزم بأمنهم
بتاتا. لكن النزعة الفردية المعهودة انتصرت عند ألتمان -أعتذر عن استعمال الشعر
مرة أخرى، لكن سخرية الحدث تدعوني لذلك- ويبدو أنه سمع قول الشاعر:
إِذا هَبَّتْ
رِياحُكَ فَاغْتَنِمْها فَعُقْبَى
كُلِّ خافِقَةٍ سُكُوْنُ
فمن لا يسيل لعابه أمام المليارات التي
تقدمها وزارة الحرب نتيجة هذا الاتفاق؟ وماذا لو فرضا مات أشخاص نتيجة لذلك؟ ففي
النهاية البشرية كلها ستموت!. والعبارة الأخيرة في البيان توحي وكأن ألتمان
وشركاؤه المساكين، لا حول لهم ولا قوة أمام هذا الاتفاق، فهل من الأفضل أن تقع هذه
الأسلحة بأيدي "الإرهابيين" -الإرهابيون الغزيون أنموذجا- أم أن من
الأسلم أن تكون بيد حمائم السلام اللطيفة أمريكا وحليفتها إسرائيل اللتان تقفان
أمام وحشية وعنف هذا العالم القاسي؟. فنحن نعمل لوزارة الحرب نعم، لكننا نعمل معها
"لخدمة البشرية" بالطبع.
أما العبارة الأخيرة "نظل ملتزمين
بخدمة البشرية جمعاء بأفضل ما نستطيع. فالعالم مكان معقّد، وفوضوي، وأحيانًا خطير"،
فهي تبريرية صِرفة. فنحن لم نتعاون عسكريا لأننا نرغب بذلك أو أن نكون قد خُنَّا
مبادئنا؛ بل هي ضرورة واقعية حتمية مفروضة علينا. وبالطبع لا أحد يحب الفوضوية والخطر
خصوصا لو كان منشؤه إرهابيا سيئا. فالإرهاب في القاموس الأمريكي -حتى عند غالبية
النخب الأمريكية- هو كل ما لا يتفق مع المصلحة الإسرائيلية أولا، والأمريكية
ثانيا.
المآلات
لا يخلو الاتفاق من مآلات آتية لا محالة،
فمن الحقائق التي يقرها البيان؛ دخول الذكاء الاصطناعي الذي كان يوما من الأيام
منتجا عاما، حيز الاستعمال العسكري. فالذكاء الاصطناعي مستعمل بالفعل عند الجهات
العسكرية مسبقا، لكن استعمال الآلة التي تتغذى على معلومات، بيانات، وأنماط
التفكير والتحليل والفعل عند مستعمليها من الناس كافة، لا تمثل قطعة ذهبية وجدوها
في الشارع؛ بل منجما ومختبرا مجانيا تستطيع اليد المتحكمة فيه الفوز بالحروب
مستقبلا، قبل الدخول فيها حتى، بمعنى أن تدخل المباراة وأنت متقدم على الخصم 3-0
قبل صفارة البداية حتى!.
ثم إن محاولة تأطير استعمال المدني
استعمالا عسكريا ليغدو مقننا وممكنا في آن، بدلا من من منعه على الإطلاق؛ بحجة
البيئة الآمنة والمغلقة، ستغدو سابقة لا يمكن بعدها المطالبة بشيء. وهذا يعني
ضمنيا انتقال الذكاء الاصطناعي من كونه أداة ذات فائدة للبشرية -كما كان هدف
إطلاقها الأول- إلى أن يصبح بنية تحتية استراتيجية مخيفة ووحشية في آن، وهو ما
يجعلها سلاحا جيوسياسيا خارقا للحدود، وبتكاليف أقل. فكما يُقال دائما "إذا
لم تدفع ثمن المنتج، فأنت المنتج ذاته" لكن ألتمان في الحقيقة جعل الناس
يدفعون ثمن سلب حرياتهم وبيناتهم وأنماط تفكيرهم التي ستُبنى عليها الأنماط التي
تحدد سلوكياتهم المتوقعة وبناء البيئة التي تفيد اليد المتحكمة بالاحتمالات
الممكنة للحدث، وعدم إتاحة أي شيء للصدفة المحضة.
يُقال بأن أفضل وسيلة للدفاع، هي الهجوم.
لذلك قامت OpenAI بالاتفاق وإذاعة هذا الاتفاق لتسارع في
تثبيته والاستفادة القصوى منه قبل أن تصدر قوانين أو تشريعات تحد ذلك الاستعمال
وتقلل الاستفادة بالتبعية. كما أن الحروب تمنح الفرصة لصنع الثروات، فإن عالم
اليوم يمنح الشركات فرصة لتجرب منتجاتها لا على الفئران أو المختبرات المغلقة، بل
على البشر أنفسهم، أو على "أبناء الظلام" كما يقول قادة الحريات
والسلام. فهؤلاء الإرهابيون الذين لا يريدون السلام -والذي يعني أن تبقي
فمك مغلقا ويداك مكتوفتان أمام أرضك وحقوقك وثروات وطنك المنهوبة- لا بأس بأن
يتخلص العالم منهم، ولا بأس أيضا أن تُسرق أعضاؤهم الداخلية الصالحة للاستعمال،
وكذلك الخارجية كالجلد والشعر للاستعمال الطبي والتجاري والبيولوجي، كما تفعل وردة
الحريات وشمعة الديمقراطية إسرائيل بالشعب الفلسطيني المغلوب على أمره.
إن التحالف بين الشركة ووزارة الحرب، لا
يفيد طرفا دون الآخر. فكي تنمو الشركة، لا بد لها من أرض خصبة للتجارب أولا،
وثانيا من توفير هذه الأرض ثانيا بلا ضوابط أو شروط وهو ما ستوفره وزارة الحرب
التي تستطيع القول ببساطة بأن الأمر "سري للغاية" ويمكن استعمال عبارات
أكثر تأثيرا مثل "يمس الأمن القومي" فهي عبارات مثلها مثل
"ندين" و"نستنكر"؛ أي أننا نريد فعل الشيء الجيد، لكن هذا
المتاح الذي أمامنا ونحن بلا حول ولا قوة ففي النهاية نحن بشر طيبو النوايا، حتى
لو انحرفت أفعالنا عن النوايا الحسنة، بغير قصد طبعا. ثم إنها تعني ضمنيا بأنك لا
يجب أن تسأل أو تبالغ في السؤال، فقط اصمت؛ أم أنك تريد خرق الأمن القومي مثلا؟.
بعبارة أوضح، وداعا لما تبقى من الشفافية المزعومة، فلن يكون لها وجود بعد اليوم.
فالخطر الحالي يكمن في المزاوجة بين رأس
المال والتسليح المعرفي، وهو ما يفضي مباشرة إلى تركيز القوة الإدراكية في يد هذين
المتحالفين اللذين أطلقا العنان للخوارزمية كي تتوحش بهدوء حاليا، إلى أن تحتاج
وزارة الحرب إلى التوحش العاصف. وقد حدث ذلك قبل مدة مع إيلون ماسك الذي كان
يستطيع تزويد غزة بخدمة ستارلينك التي كانت ستفيد فرق الإنقاذ والدفاع
المدني في إخراج الأبرياء من تحت الأنقاض، لكنه يفعل ذلك؛ وفعل نقضيه في اليمن
لكشف منصات الإطلاق التي يستعملها الحوثيون في ضرب أهداف صهيونية في الداخل
المحتل.
هذا الانجراف المؤسسي لـ OpenAIلن يكون الخروج منه سهلا بعد الآن، إن لم يكن مستحيلا أصلا. ويالها من
حسنة عظيمة لوزارة الحرب، فلن تضطر بعد الآن لزيادة احتكاك الإنسان بنتائج أفعاله
أثناء الحروب، فهو لم يقتل أو يرتكب جريمة بيديه، بل تلك الآلة الأوتوماتيكية من
فعلت، وبالتالي لماذا سيشعر بالذنب أو تتأثر قراراته -التي لن يعود لها داع أصلا- في
لحظة ما بأن يقتل بضعة آلاف من الإرهابيين مثلا!، بغض النظر عن كونه يحمي أمنه
القومي في أفغانستان والعراق وفلسطين وسوريا وليبيا -المشكلة أن القائمة تطول-
وإيران مؤخرا، وهو ما يعد عملا بطوليا بغض النظر عن أن لأولئك الإرهابيين أحلاما
فضلا عن مسألة إن كانوا "بشرا" أم لا.
أما أكبر وأخطر وأسوأ المآلات على الإطلاق،
فتتركز في رأيي في الحقيقة الآتية، الذكاء الاصطناعي لم يبتدع الشر أو يخلقه من
العدم، بل سيجعله ببساطة أقل تكلفة، أكثر فاعلية، وأقصى ما يمكن من الكفاءة. لأن
قرارات الحرب بعد اليوم، لن تتعرض للعواطف البشرية -ما تبقى منها على الأقل- بل
ستغدو الخسائر في "الطرف الآخر" مجرد أرقام وبيانات وإحصاءات، فلن يكون
العسكري قد "قتل" العدد X
من الضحايا، بل سيتم "تحييد" عدد من الأعداء عبر منظومة أوتوماتيكية
تعمل بـ"كفاءة"، والكفاءة هنا تعني عدم التردد في ضغط الزناد لتحقيق
أكبر قدر من الضرر؛ وهو ما سيُخرج فعل القتل من المعضلة الأخلاقية الإنسانية، إلى
الفضاء المفتوح للتأويلات والتبريرات التكنولوجية التي سيتم وصفها في حالات المبالغة
بالقتل والتدمير بأنها "حدث مؤسف" أو "خطأ تقني" على غرار
"رحلة الخطوط الجوية
الإيرانية رقم 655، وهي
رحلة لطائرة ركاب إيرانية أسقطتها المدمرة الصاروخية الأمريكية يو إس إس فينسينس في
3 يوليو 1988 فوق مضيق هرمز، مما أسفر عن مقتل جميع ركابها البالغ عددهم 290
شخصًا. وقد تم التعرف على الطائرة، التي كانت في المجال الجوي الإيراني، خطأً على
أنها طائرة مقاتلة". وذلك وفقا لموسوعة "بريتانيكا".
أما مسألة جعل
الذكاء الاصطناعي أداة مراقبة أوتوماتيكية ذكية، فهو شيء موثق ومعروف مسبقا ولا
جديد فيه. وقد استعملته وردة الديمقراطية -إسرائيل- في مختبريها البشريين المفتوحين
"الضفة الغربية" و"القدس" لا لتحييد أو ملاحقة من ينتسب إلى
المقاومة فحسب، بل حتى أولئك الذين وضعوا "لايك/إعجاب" على منشور يتحدث
عن المقاومة إيجابا، أو عن حمامة السلام الإسرائيلية سلبا، ثم القبض عليهم
والتعامل معهم "ديمقراطيا" بالطبع. وهذا يعني أن تجربة المختبر لن تعود
مقتصرة على الفلسطينيين الذين استأثروا بفوائدها الجليلة طوال الفترة التجريبية
السابقة، بل سيتاح للعالم أجمع أن يكون مادة لهذا المختبر المثير، مجانا وبلا أي
مقابل، في تجربة تبرز المحبة الأمريكية للعالم وإمكانية نشر الحريات والديمقراطية
-حين يستدعي الأمر- بشكل أفضل وأسرع مستقبلا.
تبرز إحدى أهم الجوانب أيضا في كون الذكاء
الاصطناعي انتقل من كونه مستشارا وفقا لمعلومات نمده بها، إلى إمكانية تولّيه
القيادة فعلا؛ وهو ما يعني توديعا نهائيا وتشييعا لـ"المعادلة
الأخلاقية" مثواها الأخير.
خلاصة
نعم الذكاء
الاصطناعي نقلة نوعية فارقة في حياة البشرية جمعاء، لكن لب المسألة لم يعد تقنيا
صِرفا، بل بات معضلة أخلاقية-إنسانية-وجودية. فما الحدود التي لن يتجاوزها الذكاء
الاصطناعي؟ وماذا بيد الدول المستهلكة بعد الآن؟. فالسؤال حقيقي ووجودي ملح هذه
المرة، لأن الدول التي لم تكن تملك يدا تدافع بها قبل الذكاء الاصطناعي أمام تنمر
القوى الكبرى سابقا، سيختفي حتى صوتها بعد توغل وتغول الذكاء الاصطناعي وإتاحة
الفرصة له كي يتصرف وفقا لأوامر فضفاضة تتلخص في "المصلحة العامة"
و"الخير" و"الحفاظ على الأمن القومي"، فيتصرف وفقا لما يراه
مناسبا وصحيحا.
لا أريد أن أكون
متشائما، لكن هل يوجد أكثر تشاؤمية من أن تتحقق رواية 1984 لجورج أورويل واقعا؟ أظن
أننا تجاوزنا هذه العتبة بالفعل، وأخشى أن يأتي اليوم الذي يقرر فيه الذكاء الاصطناعي تصفية البشر لا وفقا
للأوامر البشرية هذه المرة، بل وفقا للـ"الفعل الصحيح" من وجهة نظره،
فهو لم يعد آلة منبتَّة عن العالم، بل وحشا له وعيه الذاتي ويتغذى على مصادر
مفتوحة لانهائية ولامحدودة. كما أن المسألة لم تعد خيالا علميا، بل هي واقع معاش.
وخلاصة القول، لن يكون للمستهلك بعد الآن قدرة على المقاومة أو الدفاع عن نفسه إن
كان مستعملا لتقنيات الذكاء الاصطناعي بلا مراعاة للخصوصية، فقد غدا مستباحا عاريا
بلا أي درع أمامها ما لم يكن قد استعملها بذكاء وحذر مطلق أو استغن عنها تماما،
وهذا للأفراد بالطبع. أما بالنسبة إلى الدول، فإن من لا يستثمر على وجه السرعة في
هذه التقنيات وتكون البنية التحتية تحت عينيه وطوع يديه، أكبَّرتَ عليه أربعا أم
لم تفعل، فهو لم يعد عداد الأحياء..
علاءالدين الدغيشي
| 10:20 صباح الأحد | 1 مارس 2026

تعليقات
إرسال تعليق