هوش مصنوعی برای آینده بشریت چه خطراتی می‌تواند داشته باشد؟

در این مطلب به توضیح مهم‌ترین مهم‌ترین خطرات هوش مصنوعی می‌پردازیم.

شناسه خبر: ۴۲۷۶۲۲
هوش مصنوعی برای آینده بشریت چه خطراتی می‌تواند داشته باشد؟

هوش مصنوعی باوجود تمام قابلیت‌هایی که دارد، با پیشرفت خود هشدارهای نگران‌کننده‌ای نیز به بشریت داد. در این مطلب  قصد داریم به چند مورد از مهم‌ترین  خطرات هوش مصنوعی  برای بشر اشاره کنیم.

مهم‌ترین خطرات هوش مصنوعی

از جایگزینی مشاغل مختلف گرفته تا توسعه سلاح‌های مستقلی که بدون نظارت انسان عمل می‌کنند، فهرست خطرات هوش مصنوعی بسیار بلندبالاست که در ادامه با چند مورد آشنا خواهیم شد.

1. تهدیدات امنیت سایبری

هکرها می‌توانند از هوش مصنوعی در حملات سایبری سوءاستفاده کنند. در این روش‌ها، از ابزارهای هوش مصنوعی برای شبیه‌سازی صدا، تولید هویت‌های جعلی و ساخت ایمیل‌های فیشینگ استفاده می‌شود. تمام این موارد به قصد کلاهبرداری، هک، سرقت هویت فرد یا به‌خطرانداختن حریم خصوصی و امنیت آنها انجام می‌شود.

2. جایگزینی نیروی کار انسانی

نگرانی بزرگ دیگری که برای هوش مصنوعی وجود دارد، پذیرفتن این فناوری در صنایعی مانند بازاریابی، تولید و مراقبت‌های بهداشتی است. برخی کارشناسان می‌گویند تا سال 2030، 30 درصد وظایفی که هم‌اکنون در اقتصاد ایالات متحده انجام می‌شود، خودکار خواهند شد؛ از هوش مصنوعی برای انجام آنها کمک گرفته می‌شود.

این اتفاق موقعیت‌های شغلی انسان‌ها را از بین می‌برد و همان‌طور که گلدمن ساکس می‌گوید، 300 میلیون شغل تمام‌وقت به‌ خاطر اتوماسیون هوش مصنوعی از بین خواهد رفت. البته پیشرفت هوش مصنوعی باعث می‌شود استخدام افراد در نقش‌هایی مانند متخصصان یادگیری ماشین، مهندسان رباتیک و متخصصان تحول دیجیتال افزایش پیدا کند.

«کریس مسینا»، استراتژیست حوزه فناوری، نیز می‌گوید حوزه‌هایی مانند قانون و حسابداری درحال‌حاضر آماده‌اند که هوش مصنوعی به آنها مسلط شوند.

3. گسترش اطلاعات نادرست با هوش مصنوعی

علاوه‌‎‌بر حملات سایبری، هکرها با سوءاستفاده از هوش مصنوعی می‌توانند اطلاعات نادرست منتشر کنند.

یکی دیگر از خطرات هوش مصنوعی مربوط به تولید ویدیو و تصاویر دیپ‌فیک می‌شود. در دنیای امروزی، بسیاری از سیاستمداران برای بیان دیدگاه‌های خود از پلتفرم‌های آنلاین مانند ایکس یا بلواسکای استفاده می‌کنند. درعین‌حال، رسانه‌های آنلاین مملو از تصاویر ویدیوهای دیپ‌فیک ساخته هوش مصنوعی هستند که در بسیاری از موارد چهره شخصیتی واقعی برای بیان موضوع موردنظر خود شبیه‌سازی می‌کنند.

در واقع عوامل مخرب دنیای اینترنت با کمک این دیپ‌فیک‌ها می‌توانند به‌راحتی اطلاعاتی نادرست را از زبان افراد بزرگ جهان، مانند ایلان ماسک یا دونالد ترامپ، به اشتراک بگذارند. همچنین در برخی موارد دیپ‌فیک‌های ساخته‌شده به اندازه‌ای واقعی هستند که تقریباً تشخیص اخبار موثق یا اشتباه را غیرممکن می‌کنند.

4. نظارت اجتماعی و ترویج تعصبات فکری با هوش مصنوعی

هوش مصنوعی برای حریم خصوصی و امنیت انسان‌ها نیز می‌تواند خطراتی را داشته باشد. یکی از نمونه‌های بارز سوءاستفاده از هوش مصنوعی به فناوری تشخیص چهره چین مربوط می‌شود که در ادارات، مدارس و مکان‌های عمومی دیگری به کار گرفته شده است.

باتوجه‌به هشدار کارشناسان، دولت چین با این سیستم علاوه‌بر ردیابی حرکات فرد ممکن است برای نظارت بر فعالیت، روابط و دیدگاه‌های سیاسی او نیز اطلاعات موردنیازش را جمع ‌کند.

نمونه دیگر این فناوری در ادارات پلیس ایالات متحده مستقر است که از الگوریتم‌های خاصی برای پیش‌بینی محل وقوع جنایات استفاده می‌کند. همچنین ممکن است برخی الگوریتم‌ها در این سیستم‌ها دچار سوگیری شوند.

هوش مصنوعی به شکل‌های مختلفی ممکن است دچار سوگیری فکری شود؛ به بیان ساده‌تر، در این شرایط ممکن است هوش مصنوعی داده‌هایش را براساس برخی تعصبات نژادی و مذهبی بیان کند.

5. توسعه سلاح‌های خودکار مبتنی‌بر هوش مصنوعی

ai-risks3-1024x742.jpg_11zon

پیشرفت‌های حوزه تکنولوژی اغلب وارد صنعت جنگ نیز می‌شود. این برای هوش مصنوعی نیز صدق می‌کند. توسعه سلاح‌های خودمختاری که از فناوری هوش مصنوعی پشتیبانی می‌کنند، یکی از خطرات این فناوری است و کشورهای سراسر جهان برای پیشتازی در آن رقابت می‌کنند.

شاید توسعه چنین سلاح‌هایی از مدت‌ها قبل در داستان‌های علمی‌-تخیلی پیش‌بینی شده بود اما زمانی همه‌چیز خطرناک به‌ نظر می‌رسد که در آینده آنها به دست افراد اشتباه بیفتند. با پیشرفت دنیای فناوری، هکرها نیز به انواع مختلفی از حملات سایبری تسلط پیدا کرده‌اند که این امر سیستم‌های هوش مصنوعی آینده را نیز به‌طور بالقوه آسیب‌پذیر می‌کند.

6. توسعه هوش مصنوعی خودآگاه و غیرقابل‌کنترل

همیشه این نگرانی وجود داشته که هوش مصنوعی به‌قدری پیشرفت کند که از انسان‌ها نیز باهوش‌تر شود. طبق پیش‌بینی کارشناسان، ممکن است در این شرایط فناوری‌های هوش مصنوعی کاملاً خودمختار ساخته شوند که از هویت خود نیز آگاه‌اند.

البته توسعه این فناوری احتمالاً به آینده‌ای بسیار دور مربوط می‌شود اما از بزرگ‌ترین خطرات هوش مصنوعی است.

7. آسیب‌های زیست‌محیطی

آموزش مدل‌های هوش مصنوعی و انجام محاسبات پیچیده توسط آنها به انرژی بسیار زیادی نیاز دارد و میزان انتشار کربن این فرایند بسیار زیاد است؛ بنابراین اجرای مدل‌های پیچیده به افزایش انتشار کربن کمک می‌کند و می‌تواند به محیط‌زیست آسیب برساند.

مصرف آب دیگر نگرانی توسعه هوش مصنوعی است. بسیاری از سیستم‌های هوش مصنوعی روی سرورهایی اجرا می‌شوند که گرمای زیادی تولید می‌کنند و خنک‌سازی آنها به آب زیادی نیاز دارد. طبق پژوهشی، آموزش مدل‌های GPT-3 در مراکز داده مایکروسافت به 5 میلیون و ۴۰۰ هزار لیتر آب نیاز دارد و برای پردازش 10 تا 50 درخواست تقریباً 500 میلی‌لیتر آب مصرف می‌شود.

تلاش جهانی برای کاهش خطرات هوش مصنوعی

خطرات هوش مصنوعی بسیار نگران‌کننده به نظر می‌رسند اما این فناوری همچنان مزایای بی‌شماری دارد که بسیاری از کارهای روزمره را ساده‌تر می‌کنند. دولت‌های سراسر جهان هم‌زمان با پیشرفت هوش مصنوعی اقداماتی انجام می‌دهند تا خطرات ناشی از آن را کاهش دهند.

تنظیم مقررات هوش مصنوعی یکی از این اقدامات است که هم‌اکنون ده‌ها کشور جهان روی آن تمرکز کرده‌اند و ایالات‌ متحده همراه اتحادیه اروپا مشغول ایجاد مقررات واضح‌تری برای مدیریت پیچیدگی‌ها و کاهش خطرات هوش مصنوعی هستند.

منبع : دیجیاتو
نظرات
پربازدیدترین خبرها