
خطرات هوش مصنوعی +10 مورد مهم که باید در مورد آینده بدانید🟢
به عنوان یک آینده پژوه (کلمه فانتزی برای «آیندهنگری استراتژیک»)، مرتباً از من در مورد هوش مصنوعی و خطرات بالقوه آن برای بشریت سوال می شود. سوالات اغلب به سناریو هایی که مستقیماً از داستان های علمی تخیلی بیرون می آیند، متمایل می شوند. ماشین های فوق هوشمند که جهان را تسخیر می کنند. ربات هایی که خودآگاه می شوند، یا هوش مصنوعی که ناگهان تصمیم می گیرد بشریت را از بین ببرد. در این مقاله می خواهیم در مورد خطرات هوش مصنوعی صحبت کنیم.
خطرات هوش مصنوعی
آنچه مرا نگران می کند، خیالپردازی در مورد هوش مصنوعی عمومی بدخواه نیست. بلکه روش های ظریف و موذیانه ای است که فناوری هوش مصنوعی فعلی در حال حاضر بر جامعه ما تأثیر می گذارد. در حالی که «برادران فناوری» در سیلیکون ولی از برج عاج خود در مورد هوش مصنوعی عمومی و تکینگی موعظه می کنند، تأثیرات فوریتر آنچه را که در واقع یک فناوری نسبتاً محدود است، از دست می دهند (یا شاید عمداً نادیده می گیرند).
بیایید صادق باشیم – بیشتر هوش مصنوعی امروزی (به ویژه هوش مصنوعی مولد) اساساً گنگ است. همچنین، برای روشن شدن موضوع – هوش مصنوعی دهه هاست که وجود دارد و از زمان آغاز کامپیوتر ها، بنابراین چیزی شبیه OpenAI یا ChatGPT نیست که ما تازه کشف کرده باشیم. فقط یک تکامل طبیعی فناوری است که ناگهان به دلیل اینکه می تواند “با شما صحبت کند” و ما به طور خودکار فکر می کنیم که هوشمند است، مورد توجه قرار گرفته است.
سادهترین توضیح:
این یک تطبیق الگو با استروئید ها است که مقادیر عظیمی از اطلاعات را برای تولید نتایج به ظاهر هوشمند میانگینگیری می کند. بله، می تواند اطلاعات را سریعتر از انسان ها پردازش کند و ارتباطاتی را که ممکن است از دست بدهیم پیدا کند، اما فاقد درک واقعی، زمینه یا تفکر اصیل است. ما اساساً با مدل های آماری پیچیده ای کار می کنیم که علیرغم قابلیت های چشمگیرشان، حتی با هوش عمومی یک گربه خانگی نیز مطابقت ندارند.

پس هوش مصنوعی خطرناک نیست؟
اما این بدان معنا نیست که هوش مصنوعی قدرتمند یا بالقوه خطرناک نیست. تهدیدات واقعی آن نه در آینده ای فرضی از ماشین های آگاه، بلکه در نحوه استفاده امروز از آن و عواقبی که برای آینده (انسان) ما خواهد داشت، نهفته است: تأثیرگذاری بر رفتار، انتشار اطلاعات نادرست، از بین بردن حریم خصوصی و آنچه که در حال حاضر می توانیم مشاهده کنیم، به طور بالقوه توانایی های شناختی خودمان را کاهش می دهد. اینها چالش هایی هستند که باید به آنها بپردازیم، زیرا واقعی هستند و از قبل یک مشکل محسوب می شوند.
من کمی طوفان فکری و تحقیق انجام داده ام و در اینجا ۱۳ حوزه کلیدی «نگرانی» را آورده ام – فکر می کنم این عدد کمی به عنوان من حال و هوای ملودرام اضافه کرده است. اما برخلاف پیشبینی های معمول آخرالزمانی، اینها بر اساس فناوری فعلی و تکامل منطقی آن هستند. بنابراین، برخلاف برخی دیگر، من از تهدید های علمی تخیلی زیاد دوری خواهم کرد، بلکه به واقعیت عملی چگونگی توسعه و پیادهسازی هوش مصنوعی در دنیای ما نگاه خواهم کرد.
به طور کلی ۴ دسته وجود دارد که من آنها را از هم متمایز می کنم تا فکر کردن به «خوشه ها» آسانتر شود. البته خطرات بسیار بیشتری وجود دارد و هر صنعت و موضوع اجتماعی ممکن است در آنجا پوشش داده شود.
تهدید های حقوق و آزادی های فردی
تهدید های عدالت اقتصادی و اجتماعی
تهدید های ایمنی و امنیت
تهدید های وجودی و بلندمدت
خطر وجودی ناشی از هوش مصنوعی فوق هوشمند؟
اول. تهدیدات برای حقوق و آزادی های فردی
تصور کنید در جهانی از خواب بیدار شوید که هر حرکت، تراکنش و تعاملی با دقت ردیابی و تجزیه و تحلیل می شود. این داستان علمی تخیلی نیست . این واقعیت بالقوه نظارت بدون کنترل هوش مصنوعی است. با پیچیدهتر شدن سیستم های هوش مصنوعی در پردازش حجم عظیمی از داده ها، آنها در حال ایجاد قابلیت بیسابقه ای برای نظارت گسترده هستند که در مقایسه با آن، کتاب ۱۹۸۴ جورج اورول عجیب به نظر می رسد.
این کار به اندازه کافی معصومانه شروع می شود، با ویژگی های راحتی مانند تشخیص چهره برای باز کردن قفل تلفن یا توصیه های خرید شخصیسازی شده. اما به تدریج شبکه گستردهتر می شود. شهر های هوشمند در حال استقرار دوربین های مجهز به هوش مصنوعی برای «امنیت عمومی» هستند. کارفرمایان از تجزیه و تحلیل احساسات برای نظارت بر بهرهوری کارکنان استفاده می کنند. سیستم های اعتبار اجتماعی، که در حال حاضر در برخی از نقاط جهان به واقعیت تبدیل شده اند، در حال گسترش جهانی هستند.
خطر واقعی در همگرایی این سیستم ها نهفته است. وقتی هوش مصنوعی می تواند فعالیت رسانه های اجتماعی، حرکات فیزیکی، عادات خرید و روابط بین فردی شما را با هم مرتبط کند، یک پروفایل جامع ایجاد می کند که می تواند رفتار انسان را پیشبینی – و به طور بالقوه کنترل – کند. تأثیر منفی آن بر آزادی شخصی می تواند عمیق باشد، زیرا افراد با دانستن اینکه دائماً تحت نظر و قضاوت هستند، شروع به خودسانسوری و اصلاح رفتار خود می کنند.
دوم. تهدید های عدالت اقتصادی و اجتماعی
ظهور فناوری هوش مصنوعی در حال ایجاد شکل جدیدی از استعمار دیجیتال است که می تواند نابرابری های اقتصادی قبلی را در مقایسه کوچک جلوه دهد. ما شاهد ظهور چیزی هستیم که می توان آن را «اشرافیت هوش مصنوعی» یا «فئودالیسم هوش مصنوعی» نامید – گروه کوچکی از شرکت ها و ملت ها که نه تنها ثروت، بلکه ابزار تولید ثروت در اقتصاد مدرن را نیز کنترل می کنند. وقتی این موضوع را بیشتر بررسی کنید و به واقعیت های جایگزین، جهان های جداگانه و مفاهیمی مانند متاورس فکر کنید، می توانید ببینید که چرا می تواند جهان را بیشتر تقسیم کند.
اما بیایید ابتدا در نظر بگیریم که چگونه این امر ممکن است توسعه یابد:
شرکت هایی که در حال حاضر بر توسعه هوش مصنوعی تسلط دارند، همچنان با سرعت نمایی به جمعآوری مزایا ادامه می دهند. آنها داده ها، استعداد و منابع محاسباتی لازم برای پیشرو ماندن را دارند. هر پیشرفتی شکاف را گسترش می دهد و رقابت را برای تازه واردان به طور فزاینده ای غیرممکن می کند. در همین حال، ملت هایی که قابلیت های قوی هوش مصنوعی ندارند، خود را به طور فزاینده ای وابسته به کشور های غنی از هوش مصنوعی می بینند و اشکال جدیدی از بردگی فناوری ایجاد می کنند.
پیامد های این امر فراتر از نابرابری اقتصادی ساده است. وقتی سیستم های هوش مصنوعی همه چیز را از تخصیص منابع گرفته تا پیشبینی بازار کنترل می کنند، کسانی که هوش مصنوعی را کنترل می کنند، عملاً اقتصاد جهانی را کنترل می کنند. کشور ها و شرکت های کوچکتر به منابع داده و بازار های صرف برای محصولات مبتنی بر هوش مصنوعی تبدیل می شوند و قادر به رقابت یا توسعه قابلیت های خود نیستند.
سوم. جابجایی شغل و انتقال نیروی کار
یکی از مضامین بسیار تبلیغشده – «هوش مصنوعی مشاغل ما را خواهد گرفت». موج آتی اتوماسیون مبتنی بر هوش مصنوعی از بسیاری جهات فقط یک انقلاب صنعتی دیگر است – این یک تحول اساسی در فعالیت اقتصادی انسان و نحوه ایجاد ارزش است. اما یک چیز با گذار های فناوری قبلی که در درجه اول بر کار فیزیکی تأثیر می گذاشتند، بسیار متفاوت است: هوش مصنوعی تهدید می کند که همزمان وظایف دستی و شناختی را خودکار کند و مقیاسی بیسابقه از جابجایی ایجاد کند.
این در درازمدت معنای زیادی ندارد. اما در کوتاهمدت حرکت و تغییر زیادی وجود خواهد داشت . بهویژه برای کشور های توسعهیافته. (برای اطلاعات بیشتر در این مورد به بخش شکاف دیجیتال مراجعه کنید).
این گذار احتمالاً به صورت موجی رخ خواهد داد، هر موج مخربتر از موج قبلی است. اما در نهایت مانند همیشه فناوری در حال تکامل است. ابتدا اتوماسیون وظایف روزمره – حمل و نقل، خدمات مشتری، ورود داده ها – آغاز می شود. سپس هوش مصنوعی شروع به ورود به خدمات حرفه ای – کار حقوقی، تشخیص پزشکی، تجزیه و تحلیل مالی – می کند. در نهایت، حتی نقشهای خلاقانه و استراتژیک نیز با سیستم های هوش مصنوعی پیچیدهتر، تقویت یا جایگزین می شوند.
بحران واقعی فقط بیکاری نیست!
راه های زیادی برای وقوع این امر وجود دارد. ممکن است یک “طبقه منسوخ” دائمی از کارگرانی ایجاد کند که مهارت هایشان جایی در اقتصاد جدید ندارد. یا ممکن است به سادگی شاهد ظهور چیزی باشیم که من آن را بخش چهارم اقتصادی می نامم (به گسترش کشاورزی، تولید و اکنون تقسیم آن به خدمات مستقیم و خدمات سرگرمی فکر کنید). ما در حال حاضر شاهد رشد یک صنعت جدید هستیم که در آن محتوا، سرگرمی، تعامل و توجه صرف به یک ارز ارزشمند تبدیل می شود. در آینده ای که تقاضای کمتری برای کالا ها و خدمات فیزیکی وجود دارد، جهانی پر از مشاغل سرگرمی و توجه در حال ظهور است.
اینکه کدام یک از این دو سناریو به وقوع خواهد پیوست، حدس هر کسی است، اما من قطعاً به شدت طرفدار نسخه خودم هستم، زیرا به سادگی طبیعیتر خواهد بود و هیچ انقلاب صنعتی تاکنون منجر به اشتغال کمتر (در واقع، بیشتر) نشده است.
چهارم.خطرات مراقبت های بهداشتی ناشی از هوش مصنوعی مغرضانه یا ناقص
ما قبلاً در مورد تعصب در داده ها و هوش مصنوعی صحبت کرده ایم. و مراقبت های بهداشتی یکی از داغترین حوزه هایی است که مردم دوست دارند هوش مصنوعی در آن به کار گرفته شود. اما ادغام هوش مصنوعی در مراقبت های بهداشتی یک تهدید به ویژه موذیانه است. زیرا اشتباهات آن اغلب تا زمانی که آسیب قابل توجهی وارد نشود، فوراً آشکار نمی شوند.
ما همین حالا هم شاهدیم که چگونه سیستم های هوش مصنوعی که عمدتاً بر اساس داده های گروه های جمعیتی خاص آموزش دیده اند، می توانند هنگام اعمال بر دیگران، فرضیات خطرناک و اشتباهی داشته باشند.
سناریویی را تصور کنید که در آن هوش مصنوعی به دروازهبان اصلی دسترسی به مراقبت های بهداشتی تبدیل می شود. ممکن است در ظاهر کارآمد به نظر برسد. اما در زیر آن، شبکه پیچیده ای از سوگیری ها و فرضیات نهفته در سیستم نهفته است. یک هوش مصنوعی می تواند به طور مداوم سطح درد را در گروه های قومی خاص بر اساس سوگیری های تاریخی در داده های آموزشی، کمتر از حد واقعی تخمین بزند. یا بر اساس تحلیل های هزینه-فایده، درمان های کم تهاجمی تری را برای بیماران مسن توصیه کند که سال های باقیمانده آنها را بیارزش می کند.
پنجم. تهدیدات برای ایمنی و امنیت
صنعت مالی را نمی توان نادیده گرفت. زیرا به آرامی حدود ۹۰٪ از کل ارزش جهان را تشکیل می دهد . بله، کمتر از ۱۰٪ در واقع ارزش واقعی مانند زمین، خانه، نیروی کار، کالا ها و غیره است و بقیه فقط ابزار های مالی و صنعت مالی هستند. بنابراین طبیعی است که چنین غولی بخواهد بهینهسازی کند. پس باید خطرات هوش مصنوعی را بدانید.
حال یک سیستم مالی را تصور کنید که در آن تصمیمات میلی ثانیه ای گرفته شده توسط الگوریتم های هوش مصنوعی (مثلا الگوریتم یوتیوب )می تواند سریعتر از واکنش هر انسانی به فجایع اقتصادی جهانی تبدیل شود. ما فقط در حال نظریهپردازی نیستیم – ما در حال حاضر در مراحل اولیه این واقعیت زندگی می کنیم. سقوط ناگهانی سال ۲۰۱۰ تنها پیشنمایشی از آنچه می تواند رخ دهد وقتی سیستم های معاملاتی هوش مصنوعی به روش های غیرمنتظره ای تعامل می کنند، بود.
خطر واقعی در پیچیدگی و ارتباط متقابل فزاینده این سیستم ها نهفته است. بازار های مالی مدرن اساساً در حال تبدیل شدن به شبکه ای از سیستم های هوش مصنوعی هستند که با سایر سیستم های هوش مصنوعی معامله می کنند و هر کدام با سرعت و مقیاسی فراتر از درک انسان عمل می کنند. وقتی این سیستم ها به روش های غیرمنتظره ای تعامل می کنند، نتایج می توانند فاجعهبار و تقریباً غیرممکن برای پیشبینی یا پیشگیری باشند.

ششم.سیستم های سلاح های خودمختار و آینده جنگ
البته، ما نمی توانیم ترمیناتور را در خطرات هوش مصنوعی نادیده بگیریم . اما به روشی متفاوت. توسعه سیستم های سلاح های خودمختار شاید فوریترین تهدید وجودی ناشی از فناوری هوش مصنوعی باشد. ما به سرعت در حال نزدیک شدن به آینده ای هستیم که در آن ماشین ها می توانند تصمیمات مرگ و زندگی بگیرند. این از مهمترین خطرات هوش مصنوعی است.
بدون دخالت انسان، ماهیت جنگ را اساساً تغییر می دهد و به طور بالقوه بقای گونه ما را تهدید می کند. در درگیری های اخیر، ما شاهد اتوماسیون گسترده هدفگیری در اسرائیل، پهپاد ها و سگ های رباتیک مسلح یا بدتر از آن بوده ایم.
این پیشرفت احتمالاً تدریجی اما اجتنابناپذیر خواهد بود. این پیشرفت با سیستم های “نیمه مستقل” آغاز می شود که هنوز برای تصمیمات مرگبار به مجوز انسان نیاز دارند. اما از آنجایی که مزایای نظامی، زمان واکنش سریعتر را ایجاب می کند، نقش انسان به تدریج کاهش می یابد. در نهایت، می توانیم شاهد سیستم های تسلیحاتی کاملاً مستقل باشیم که با سرعت و مقیاسی درگیر نبرد می شوند که کنترل انسان را غیرممکن می کند.
هفتم.ایجاد مناطق جنگی خودکار دائمی
و علاوه بر سیستم هایی که می توانند به معنای واقعی کلمه شما را بکشند، تهدیداتی از درون اینترنت نیز وجود دارد. آینده امنیت سایبری فقط مربوط به دفاع در برابر هکر های انسانی نیست . بلکه مربوط به مواجهه با سیستم های هوش مصنوعی است که می توانند آسیب پذیری ها را سریعتر از آنچه یک انسان می تواند آنها را وصله کند، شناسایی و بهرهبرداری کنند. ما در حال ورود به دورانی هستیم که حملات مبتنی بر هوش مصنوعی می توانند به طور بالقوه از بهترین دفاع های ما پیشی بگیرند، قبل از اینکه حتی بدانیم مورد حمله قرار گرفته ایم.
سیستم های هوش مصنوعی را تصور کنید که می توانند به طور خودکار ایمیل های فیشینگ قانعکننده ایجاد کنند، بدافزار های پیچیده ای ایجاد کنند که برای جلوگیری از شناسایی تکامل می یابند، یا حملات هماهنگ را به طور همزمان در هزاران سیستم هماهنگ کنند. اینها تهدید های فرضی نیستند – آنها تکامل منطقی روند های فعلی در جرایم سایبری هستند.
نگرانکنندهترین جنبه، پتانسیل هوش مصنوعی در خطرات هوش مصنوعی برای خودکارسازی کل چرخه حمله، از شناسایی گرفته تا بهرهبرداری و پنهانکاری است. اگر سیستم های هوش مصنوعی بتوانند به طور مستقل اهداف را شناسایی کنند، استراتژی های حمله را توسعه دهند و آنها را با سرعت ماشین اجرا کنند، مدل های امنیتی سنتی ما منسوخ خواهند شد.
هشتم. تهدیدات وجودی و بلندمدت
از آنجایی که اکنون حتی راکتور های هسته ای را برای تغذیه مراکز داده جدید و گرسنه هوش مصنوعی می سازیم، باید در مورد هزینه های زیستمحیطی پنهان انقلاب هوش مصنوعی خود نیز صحبت کنیم، هزینه هایی که در حال ظهور هستند و اعداد و ارقام آنها سرسامآور است. در حالی که ما از قابلیت های هوش مصنوعی شگفتزده می شویم، در زیر سطح آن، اشتهای سیریناپذیری برای انرژی نهفته است که تهدید می کند بحران اقلیمی ما را تسریع کند.
هر چت با یک دستیار هوش مصنوعی، هر تصویر تولید شده، هر مدل آموزش دیده – همه آنها دارای برچسب هزینه زیستمحیطی هستند که ما تازه شروع به درک آن کرده ایم. در جهانی که باید انرژی را تأمین کنیم، جایی که باید در مورد محل استفاده از انرژی هوشمند باشیم، استفاده از آن برای هوش مصنوعی – و همچنین بلاکچین – واقعاً برای بشریت خطرناک است.
مقیاس را در نظر بگیرید:
آموزش یک مدل گفتاری بزرگ می تواند انرژی بیشتری نسبت به مصرف سالانه برخی از شهر های کوچک مصرف کند. مراکز داده در حال تبدیل شدن به کارخانه های جدید عصر دیجیتال هستند، اما به جای دودکش های قابل مشاهده، آنها بیصدا منابع آب و شبکه های برق ما را تخلیه می کنند. در مکانهایی مانند آریزونا و نوادا، تأسیسات هوش مصنوعی با نیاز های کشاورزی و مسکونی برای منابع آب گرانبها رقابت می کنند.
بحران واقعی خطرات هوش مصنوعی با شتاب گرفتن پذیرش هوش مصنوعی در سطح جهانی پدیدار می شود. با هجوم شرکت ها و کشور های بیشتر برای توسعه قابلیت های هوش مصنوعی خود، می توانیم شاهد انفجاری در مصرف انرژی باشیم که از سطوح فعلی فراتر می رود. طنز ماجرا اینجاست که در حالی که ما در حال توسعه سیستم های هوش مصنوعی هستیم که می توانند به حل تغییرات اقلیمی کمک کنند، در عین حال به تسریع آن نیز کمک می کنیم.
نهم.بحران در تولید نیمه هادی ها به دلیل کمبود آب
“این من نبودم که این تصمیم را گرفتم”. ما به سرعت در حال نزدیک شدن به یک بحران پاسخگویی خطرات هوش مصنوعی در مدیریت هوش مصنوعی هستیم، جایی که پیچیدگی سیستم های هوش مصنوعی، تعیین مسئولیت برای تصمیمات آنها را به طور فزاینده ای دشوار می کند. این فقط مربوط به اشکالات فنی نیست – بلکه مربوط به سوالات اساسی عدالت و مسئولیت در جهانی است که توسط هوش مصنوعی هدایت می شود.
این مشکل به ویژه در مورد تصمیمات پرخطر حاد است. اگر یک سیستم هوش مصنوعی از وام دادن به کسی خودداری کند، چه کسی مقصر است – توسعهدهندگان، ارائهدهندگان داده های آموزشی، موسسه ای که از آن استفاده می کند یا خود الگوریتم؟ با پیچیدهتر و به هم پیوستهتر شدن این سیستم ها، ردیابی زنجیره مسئولیت تقریباً غیرممکن می شود.
نگرانکنندهترین جنبه، ایجاد بالقوه “مناطق بدون مسئولیت” است، جایی که تصمیمات مهم تأثیرگذار بر زندگی انسان ها بدون پاسخگویی روشن گرفته می شود. این می تواند سیستمی ایجاد کند که در آن آسیبپذیرترین اعضای جامعه در صورت آسیب دیدن سیستم های هوش مصنوعی، هیچ راه چاره موثری نداشته باشند.

دهم.معضلات اخلاقی در سیستم های خودمختار
البته، موضوعی که تقریباً همیشه هر بحثی را از بین می برد نیز وجود دارد – «اخلاق». ادغام هوش مصنوعی در فرآیند های تصمیمگیری حیاتی، ما را مجبور می کند با سوالات اخلاقی روبرو شویم که پاسخ روشنی برای آنها وجود ندارد. چگونه ماشین ها را برای تصمیمگیری های اخلاقی برنامهریزی کنیم که حتی انسانها نیز با آنها دست و پنجه نرم می کنند؟ این چالش فقط نظری نیست – با استقرار سیستم های هوش مصنوعی در موقعیتهای مرگ و زندگی، این چالش به طور فزاینده ای عملی می شود.
به وسایل نقلیه خودمختاری فکر کنید که با تصادفات اجتنابناپذیر روبرو می شوند، یا سیستم های هوش مصنوعی پزشکی که تصمیم می گیرند چگونه در یک بحران منابع را تخصیص دهند. این سناریو ها نه تنها به راهحل های فنی، بلکه به قضاوت های اخلاقی اساسی نیز نیاز دارند. چه کسی می تواند این ترجیحات اخلاقی را برنامهریزی کند؟ این سیستم ها باید ارزش های چه کسی را منعکس کنند؟
چالشبرانگیزترین جنبه، پتانسیل سیستم های هوش مصنوعی برای تصمیمگیری های اخلاقی در مقیاس و سرعتی است که نظارت انسانی را غیرممکن می کند. وقتی هزاران تصمیم از این دست در هر ثانیه گرفته می شود، چگونه می توانیم اطمینان حاصل کنیم که آنها با ارزش های انسانی و اصول اخلاقی سازگار هستند؟
دیدگاهتان را بنویسید