طلبت Techopedia من بعض كبار المديرين التنفيذيين في مجال تكنولوجيا المؤسسات معرفة كيف يعتقدون أن الذكاء الاصطناعي سيؤثر على المؤسسات في عام 2024. بدءًا من زيادة إنتاج الفيديو، إلى الأمان السحابي، وحتى ظهور البرامج الضارة التي ينشئها الذكاء الاصطناعي، ستكون الأشهر الـ 12 المقبلة صعبة للغاية أوقات مثيرة للاهتمام.
اثنان من androids AI يتلامسان مع اليدين
لقد كان عام 2023 وحده عامًا هائلاً للذكاء الاصطناعي التوليدي ، مع إطلاق كل من GPT-4 و GPT-4 وGPT-4V و Google Bard وPaLM 2 و Google Gemini جميعها هذا العام كجزء من سباق تسلح سريع التخمير لأتمتة العمليات اليومية. سير العمل اليوم.
للحصول على نظرة ثاقبة لما هو قادم، طلبت Techopedia من بعض كبار المديرين التنفيذيين في مجال تكنولوجيا المؤسسات معرفة كيف يعتقدون أن الذكاء الاصطناعي سيؤثر على المؤسسات في عام 2024 وأهم اتجاهات الذكاء الاصطناعي التي يرونها ناشئة. تم تحرير التعليقات أدناه من أجل الإيجاز والوضوح.
ظهور البرامج الضارة التي تغذيها الذكاء الاصطناعي
سنشهد قريبًا ظهور البرمجيات الخبيثة التي تعمل بالذكاء الاصطناعي والتي يمكنها التفكير والتصرف من تلقاء نفسها. وهذا تهديد ينبغي للولايات المتحدة أن تشعر بالقلق بشكل خاص بشأنه عندما يأتي من خصومها من الدول القومية.
سنرى أنماط هجوم تصبح أكثر تعدد الأشكال، مما يعني أن الذكاء الاصطناعي (AI) يقوم بتقييم البيئة المستهدفة بعناية ثم يفكر من تلقاء نفسه للعثور على الثغرة النهائية في الشبكة أو أفضل منطقة لاستغلالها والتحويل وفقًا لذلك.
فبدلاً من امتلاك كود تحليل بشري، سنرى مجسات للتعلم الذاتي يمكنها اكتشاف كيفية استغلال نقاط الضعف بناءً على التغيرات في بيئتها.
باتريك هار، الرئيس التنفيذي لشركة SlashNext
سيزداد اعتماد مفتاح المرور
هناك جانب مظلم من طفرة الذكاء الاصطناعي لم يدركه الكثير من المستهلكين أو الشركات: فقد أصبح مجرمي الإنترنت الآن قادرين على جعل هجمات التصيد الاحتيالي الخاصة بهم أكثر مصداقية وتكرارًا وتعقيدًا من خلال الاستفادة من قوة الذكاء الاصطناعي التوليدي ، مثل WormGPT . ومع دخولنا عام 2024، سوف ينمو هذا التهديد من حيث الحجم والنطاق.
على هذه الخلفية، سنصل إلى نقطة التحول لاعتماد مفاتيح المرور بشكل جماعي (على الرغم من أنه ستظل هناك فترة انتقالية كبيرة قبل أن نصل إلى مستقبل بدون كلمات مرور حقًا).
في العام الماضي، أصبحت مفاتيح المرور أكثر شيوعا عبر المنصات، ونفذت شركات التكنولوجيا الكبرى - من جوجل إلى أمازون - مستويات مختلفة من دعم مفاتيح المرور.
ومع ذلك، ستتفوق مفاتيح المرور في نهاية المطاف على كلمات المرور باعتبارها تكنولوجيا الوضع الراهن بمجرد أن تصبح عواقب عدم اعتماد نموذج مصادقة أكثر أمانًا ومقاومًا للتصيد الاحتيالي واضحة في أعقاب الهجمات الإلكترونية الضارة والمكلفة بشكل متزايد.
إضافة ضمانات إلى نماذج الذكاء الاصطناعي
يجب أن تظل السلامة والخصوصية مصدر قلق كبير لأي شركة تكنولوجيا، بغض النظر عما إذا كانت تركز على الذكاء الاصطناعي أم لا. عندما يتعلق الأمر بالذكاء الاصطناعي، فإن التأكد من أن النموذج لديه الضمانات اللازمة، وحلقة التغذية الراجعة، والأهم من ذلك، آلية تسليط الضوء على المخاوف المتعلقة بالسلامة أمر بالغ الأهمية.
مع استمرار المؤسسات في اعتماد الذكاء الاصطناعي بسرعة في عام 2024 لتحقيق جميع فوائد البيانات من حيث الكفاءة والإنتاجية وإضفاء الطابع الديمقراطي، من المهم التأكد من أنه عند تحديد المخاوف، توجد آلية إبلاغ لتسليط الضوء على تلك الثغرات الأمنية، بنفس الطريقة. سيتم تحديدها والإبلاغ عنها.
اقرا ايضا:5 طرق يمكن للذكاء الاصطناعي التوليدي من خلالها إعادة تعريف إدارة الوصول إلى الهوية من هنا
سوف تعيد LLMs تشكيل الأمن السحابي
في عام 2024، من المتوقع أن يؤدي تطور الذكاء الاصطناعي التوليدي (Gen AI) ونماذج اللغات الكبيرة ( LLM )، الذي بدأ في عام 2023، إلى إعادة تعريف سلسلة الأمن السيبراني ، ورفع الكفاءة وتقليل تبعيات القوى العاملة في الأمن السحابي.
أحد الأمثلة على ذلك هو أدوات الكشف المدعمة بـ LLMs. سنرى LLMs يعزز تحليل السجل، مما يوفر اكتشافًا مبكرًا ودقيقًا وشاملاً لكل من هجمات يوم الصفر المعروفة والمراوغة .
ستكشف البراعة التحليلية لـ LLMs عن أنماط وشذوذات دقيقة ومعقدة، مما يسمح بتحديد التهديدات المعقدة والتخفيف من آثارها وتعزيز الوضع الأمني العام.
سنشهد قيام GenAI بتكثيف تعقيد كل من الهجمات السيبرانية وآليات الدفاع، مما يستلزم استراتيجيات مبتكرة وتعزيز إنشاء أطر أمنية سريعة الاستجابة.
سيؤدي دمج الذكاء الاصطناعي وLLMS إلى تبسيط العمليات والبروتوكولات الأمنية، مما يمكّن المهنيين من التركيز على التحليل الاستراتيجي والابتكار وضمان الكشف القوي عن التهديدات ومواجهتها، مما سيعزز سلامة المعلومات وسريتها وتوافرها في السحابة .
سوف يتطور "تقليل المخاطر" في أمن البيانات
ومن المتوقع أن يتطور مفهوم "تقليل المخاطر" في أمن البيانات في السنوات القليلة المقبلة، وذلك تماشياً مع الارتفاع في استخدام تقنيات الذكاء الاصطناعي التوليدي.
حتى وقت قريب، كانت المؤسسات تطبق سياسات الاحتفاظ بالبيانات وحذفها لضمان الحد الأدنى من المخاطر على أصولها. نظرًا لأن قدرات GenAI أصبحت أكثر انتشارًا وقيمة بالنسبة للمؤسسات، فإنها ستصبح أكثر تحفيزًا للاحتفاظ بالبيانات لأطول فترة ممكنة من أجل استخدامها للتدريب واختبار هذه القدرات الجديدة.
وبالتالي، لن تتمكن فرق أمن البيانات من معالجة المخاطر عن طريق حذف البيانات غير الضرورية لأن نهج العمل الجديد سيكون أن أي وجميع البيانات قد تكون مطلوبة في مرحلة ما، وسيؤدي ذلك إلى إحداث تغيير في كيفية إدراك المؤسسات وتقييمها و معالجة الحد من المخاطر في أمن البيانات.
تآكل الثقة المحيطة بعملية صنع القرار في مجال الذكاء الاصطناعي
في مشهد تكنولوجي سريع التطور، فإن أوجه التشابه بين اعتماد الخدمات السحابية والطفرة الحالية في تنفيذ الذكاء الاصطناعي هي أوجه تشابه مذهلة وتحذير.
وكما احتضنت المؤسسات بفارغ الصبر الحلول السحابية لتحقيق إمكاناتها التحويلية في مجال الابتكار، فإن سرعة اعتمادها فاقت تطوير ضوابط أمنية قوية وأدوات امتثال.
ونتيجة لذلك، أدى ذلك إلى خلق نقاط ضعف سارعت الجهات الفاعلة الخبيثة إلى استغلالها، مما ترك الشركات تتصارع مع تحديات غير متوقعة.
وبينما نشهد مسارًا مشابهًا في اعتماد تقنيات الذكاء الاصطناعي، يصبح من الضروري استخلاص الدروس من الماضي ومعالجة المخاوف التي تلوح في الأفق بشكل استباقي. لا شك أن التكامل السريع للذكاء الاصطناعي في مختلف جوانب العمليات التجارية يشكل تحولاً تحويلياً، ولكن الافتقار إلى الرؤية الشاملة والسيطرة المؤسسية يثير علامات حمراء.
مثلما حدث في الأيام الأولى لاعتماد السحابة، تتنقل المؤسسات في مناطق مجهولة باستخدام الذكاء الاصطناعي، وغالبًا ما يكون ذلك دون وجود الضمانات اللازمة. إن العواقب المترتبة على عدم كفاية الضوابط ذات شقين: أولا، زيادة خطر الخروقات الأمنية، وثانيا، تآكل محتمل للثقة حيث يتساءل أصحاب المصلحة عن الآثار الأخلاقية والشفافية المحيطة بعملية صنع القرار في مجال الذكاء الاصطناعي.
سيكون المطورون أكثر كفاءة
هذا موضوع ذو شقين يجب أن تفكر فيه القيادة حقًا في عام 2024. فمن ناحية، يجب أن يكون قادة CISOS وقادة تكنولوجيا المعلومات قادرين على التفكير في كيفية استهلاكها بشكل آمن في "ممالك" كود المصدر الخاصة بنا داخل ارتفاع موالف.
مع أمثال Co-Pilot وChatGPT، سيكون المطورون والمؤسسات أكثر كفاءة بكثير، ولكنه يقدم أيضًا المزيد من مخاطر نقاط الضعف المحتملة التي يجب أن نقلق بشأنها.
"على الجانب الآخر، نحتاج إلى أن نكون قادرين على التفكير في كيفية قيام موردي أمن التطبيقات في هذا المجال بالسماح لـ CISOS وقيادة تكنولوجيا المعلومات بالاستفادة من الذكاء الاصطناعي التوليدي في أدواتهم ليكونوا قادرين على تشغيل برامجهم بكفاءة أكبر وزيادة الإنتاجية من حيث استخدام الذكاء الاصطناعي لتسريع النتائج الأمنية مثل إنشاء السياسات الأمنية، وتحديد الأنماط والشذوذات، وإيجاد نقاط الضعف وتحديد أولوياتها بشكل أسرع بكثير، والمساعدة في عملية الاستجابة للحوادث.
أصبح إنشاء الفيديو هو السائد
على مدى العام الماضي، أصبحت النماذج المولدة للفيديو (تحويل النص إلى فيديو، صورة إلى فيديو، فيديو إلى فيديو) متاحة للجمهور لأول مرة.
في عام 2024، سنرى أن جودة هذه النماذج وعموميتها وإمكانية التحكم فيها تستمر في التحسن بسرعة، وسننهي العام بنسبة غير تافهة من محتوى الفيديو على الإنترنت الذي يتضمنها في بعض القدرات.
بالإضافة إلى ذلك، نظرًا لأن النماذج الكبيرة تصبح أسرع في التشغيل ونقوم بتطوير طرق أكثر تنظيماً للتحكم فيها، فسنبدأ في رؤية المزيد من أنواع الواجهات والمنتجات الجديدة التي تظهر حولها والتي تتجاوز النماذج القياسية للمطالبة بـ X أو مساعد الدردشة.
كان معظم تركيز المحادثات خلال العام الماضي منصبًا على قدرات الشبكات الفردية التي تم تدريبها بشكل شامل. ومع ذلك، من الناحية العملية، عادةً ما تعمل مجموعة من النماذج على تشغيل أنظمة الذكاء الاصطناعي المنتشرة في بيئات العالم الحقيقي، وسيظهر المزيد من الأطر لبناء أنظمة الذكاء الاصطناعي المعيارية.
سنرى أيضًا أبحاثًا تدعم الذكاء الاصطناعي - في حين أن مساعدي كود LLM مثل Copilot قد تلقوا الكثير من الاعتماد، لم يكن هناك الكثير من الرسوم التي تستهدف تسريع سير عمل أبحاث الذكاء الاصطناعي على وجه التحديد، على سبيل المثال، في أتمتة الكثير من الأعمال المتكررة المعنية. في تطوير/ تصحيح كود النموذج، والتدريب وتقييم النماذج، وما إلى ذلك. ومن المحتمل أن نشهد ظهور المزيد من هذه الأدوات في العام المقبل.
الخط السفلي
إذا تحقق عدد قليل فقط من أهم اتجاهات الذكاء الاصطناعي في هذه اللجنة، فإننا سنشهد أوقاتًا مثيرة للاهتمام على مدار الـ 12 شهرًا القادمة ووقتًا تحويليًا للمؤسسات والأفراد.
في حين أن المؤسسات لا تزال قادرة على التعامل مع المخاوف الأمنية المتعلقة بالبرامج الضارة ومحاولات التصيد التي ينشئها الذكاء الاصطناعي، إلا أن هناك أيضًا الكثير من الفرص للموظفين وأصحاب المصلحة لأتمتة سير العمل وفتح القيمة في عام 2024.
مرحبا بكم في جريدة وموقع كلام فور يو