10 روند برتر فناوری راهبردی در سال آینده

به نقل از تک نیوز ورد، «جین آلوارز» تحلیلگر گارتنر گفت: روندهای برتر فناوری راهبردی سال پیش‌رو شامل الزامات و خطرات هوش مصنوعی، مرزهای جدید محاسبات و همکاری انسان و ماشین است. بررسی این روندها به رهبران حوزه فناوری اطلاعات کمک خواهند کرد تا آینده سازمان خود را با نوآوری مسوولانه و اخلاقی شکل دهند.

هوش مصنوعی عاملی

در صدر این فهرست، سیستم‌های «هوش مصنوعی عاملی» (Agentic AI) قرار دارند که می‌توانند اقدامات را به‌طور مستقل براساس اهداف تعریف‌شده توسط کاربر برنامه‌ریزی و اجرا کنند. این شرکت پیش‌بینی کرد که تا سال ۲۰۲۸، حداقل ۱۵ درصد از تصمیمات کاری روزانه به‌طور مستقل از طریق هوش مصنوعی عاملی گرفته خواهند شد که این رقم در سال جاری، صفر درصد بود.

«آمبوج کومار» بنیان‌گذار شرکت «سیمبین» (Simbian) ارائه‌دهنده عوامل هوش مصنوعی مستقل برای امنیت سایبری گفت: هوش مصنوعی عاملی قطعا آینده نیروی کار سازمانی است.

با وجود این، فناوری هوش مصنوعی عاملی برای دستیابی به نفوذ پیش‌بینی‌شده توسط گارتنر باید بر برخی از چالش‌ها غلبه کند. «سندی بسن» پژوهشگر هوش مصنوعی در شرکت‌های «آی‌بی‌ام» (IBM) و «نودزیک» (Neudesic) توضیح داد: طراحی سیستم‌های هوش مصنوعی عاملی هنوز آزمایشی است. همان‌طور که مهندسان هوش مصنوعی به اصلاح روش‌های خود ادامه می‌دهند، این حوزه تکامل خواهد یافت.

پلتفرم‌های مدیریت هوش مصنوعی

گارتنر در این فهرست به سازمان‌ها توصیه کرده است که پلتفرم‌های مدیریت هوش مصنوعی را در نظر بگیرند. این پلتفرم‌ها توانایی ایجاد، مدیریت و اجرای سیاست‌هایی را برای استفاده مسوولانه از هوش مصنوعی، توضیح نحوه عملکرد سیستم‌های هوش مصنوعی و ارائه شفافیت برای ایجاد اعتماد و مسوولیت‌پذیری دارند.

گارتنر پیش‌بینی کرده است که تا سال ۲۰۲۸، سازمان‌هایی که پلتفرم‌های جامع مدیریت هوش مصنوعی را پیاده‌سازی می‌کنند، ۴۰ درصد کمتر حوادث اخلاقی مرتبط با هوش مصنوعی را در مقایسه با سازمان‌هایی که چنین سیستم‌هایی در اختیار ندارند، تجربه خواهند کرد.

«مارک ونا» رئیس و تحلیلگر اصلی شرکت «اسمارت‌تک ریسرچ» (SmartTech Research) گفت: بدون شک، مدیریت هوش مصنوعی برای کاهش حوادث اخلاقی بسیار مهم است، زیرا امکان نظارت ساختاری و پاسخ‌گویی را در توسعه و استقرار هوش مصنوعی فراهم می‌کند. سازمان‌ها با اجرای چارچوب‌های شفاف می‌توانند اطمینان حاصل کنند که سیستم‌های هوش مصنوعی با استانداردهای اخلاقی مانند انصاف، شفافیت و عدم تعصب هماهنگ هستند.

پرداختن به دروغ‌رسانی

گارتنر پیش‌بینی کرده است که سازمان‌های بیشتری در حوزه امنیت در برابر دروغ‌رسانی سرمایه‌گذاری خواهند کرد. پیش‌بینی شده که تا سال ۲۰۲۸ احتمالا ۵۰ درصد از شرکت‌ها استفاده از محصولات، خدمات یا ویژگی‌هایی را آغاز خواهند کرد که به صراحت برای رسیدگی به موارد استفاده از دروغ‌رسانی طراحی شده‌اند؛ در حالی که امروزه این رقم کمتر از پنج درصد است.

«راب اندرل» (Rob Enderle) رئیس و تحلیلگر اصلی شرکت «اندرل گروپ» (Enderle Group) گفت: دروغ‌رسانی به گرفتن تصمیمات بد می‌انجامد و به ویژه برای هوش مصنوعی مشکل‌ساز است. هوش مصنوعی با سرعت بیشتری درباره این اطلاعات بد تصمیم‌ می‌گیرد. بنابراین، حل کردن مشکل دروغ‌رسانی برای هوش مصنوعی حتی از انسان‌ها حیاتی‌تر می‌شود.

رمزنگاری پساکوانتوم

همچنین، پیش‌بینی‌ شده است که رمزنگاری پساکوانتومی در سال ۲۰۲۵ در رادار سازمان‌ها قرار خواهد گرفت. گارتنر توضیح داد که انتظار می‌رود پیشرفت‌های محاسباتی کوانتومی به چندین نوع رمزنگاری مرسوم کنونی پایان دهند. پیش‌بینی شده است که تا سال ۲۰۲۹ پیشرفت‌ در محاسبات کوانتومی، استفاده از بیشتر رمزنگاری‌های رایج را ناامن خواهد کرد.

«فلوریان نوکارت» (Florian Neukart) مدیر ارشد محصولات در شرکت «ترا کوانتوم» (Terra Quantum) گفت: من کاملا با بیانیه گارتنر موافق هستم. رمزنگاری‌های مرسوم در برابر حملات کوانتومی آسیب‌پذیر هستند. سازمان‌ها باید اکنون انتقال به راه‌حل‌های رمزنگاری پساکوانتومی را آغاز کنند. تغییر روش‌های رمزنگاری به زمان قابل توجهی نیاز دارد تا اطمینان حاصل شود که داده‌های حساس در آینده کوانتومی ایمن باقی می‌مانند.

تقویت عصبی

یکی دیگر از فناوری‌های راهبردی شناسایی‌شده توسط گارتنر، تقویت عصبی است. گارتنر بر این باور است که این فناوری در سه زمینه دارای پتانسیل بالایی خواهد بود. این سه زمینه، ارتقای مهارت انسانی، بازاریابی نسل بعدی و عملکرد هستند. تقویت عصبی، توانایی‌های شناختی را افزایش می‌دهد، برندها را قادر می‌سازد تا بدانند مصرف‌کنندگان چه فکری می‌کنند و چه احساسی دارند و توانایی‌های عصبی انسان را برای بهبود نتایج افزایش می‌دهد.

گارتنر پیش‌بینی کرده است که تا سال ۲۰۳۰ احتمالا ۳۰ درصد از کارکنان توسط فناوری‌هایی مانند رابط‌های دوطرفه مغز و ماشین تقویت خواهند شد و به آنها وابستگی خواهند داشت. اندرل با این پیش‌بینی گارتنر مخالف است. وی افزود: فناوری در حال حاضر بسیار محدود است و به سطحی از آموزش برای خواندن مغز نیاز دارد که مقیاس‌پذیر نباشد. بازگرداندن اطلاعات به مغز هنوز حداقل به صورت عمومی مرتب‌سازی نشده است. با توجه به عدم پیشرفت در این زمینه، من فکر می‌کنم پیش‌بینی ۲۰۳۰ قابل اعتماد نیست.