خطرات هوش مصنوعی

خطرات هوش مصنوعی +10 مورد مهم که باید در مورد آینده بدانید🟢

5
(1)

به عنوان یک آینده‌ پژوه (کلمه فانتزی برای «آینده‌نگری استراتژیک»)، مرتباً از من در مورد هوش مصنوعی و خطرات بالقوه آن برای بشریت سوال می‌ شود. سوالات اغلب به سناریو هایی که مستقیماً از داستان‌ های علمی تخیلی بیرون می‌ آیند، متمایل می‌ شوند. ماشین‌ های فوق هوشمند که جهان را تسخیر می‌ کنند. ربات‌ هایی که خودآگاه می‌ شوند، یا هوش مصنوعی که ناگهان تصمیم می‌ گیرد بشریت را از بین ببرد. در این مقاله می خواهیم در مورد خطرات هوش مصنوعی صحبت کنیم.

خطرات هوش مصنوعی

آنچه مرا نگران می‌ کند، خیال‌پردازی در مورد هوش مصنوعی عمومی بدخواه نیست. بلکه روش‌ های ظریف و موذیانه‌ ای است که فناوری هوش مصنوعی فعلی در حال حاضر بر جامعه ما تأثیر می‌ گذارد. در حالی که «برادران فناوری» در سیلیکون ولی از برج عاج خود در مورد هوش مصنوعی عمومی و تکینگی موعظه می‌ کنند، تأثیرات فوری‌تر آنچه را که در واقع یک فناوری نسبتاً محدود است، از دست می‌ دهند (یا شاید عمداً نادیده می‌ گیرند).

بیایید صادق باشیم – بیشتر هوش مصنوعی امروزی (به ویژه هوش مصنوعی مولد) اساساً گنگ است. همچنین، برای روشن شدن موضوع – هوش مصنوعی دهه‌ هاست که وجود دارد و از زمان آغاز کامپیوتر ها، بنابراین چیزی شبیه OpenAI یا ChatGPT نیست که ما تازه کشف کرده باشیم. فقط یک تکامل طبیعی فناوری است که ناگهان به دلیل اینکه می‌ تواند “با شما صحبت کند” و ما به طور خودکار فکر می‌ کنیم که هوشمند است، مورد توجه قرار گرفته است.

ساده‌ترین توضیح:

این یک تطبیق الگو با استروئید ها است که مقادیر عظیمی از اطلاعات را برای تولید نتایج به ظاهر هوشمند میانگین‌گیری می‌ کند. بله، می‌ تواند اطلاعات را سریع‌تر از انسان‌ ها پردازش کند و ارتباطاتی را که ممکن است از دست بدهیم پیدا کند، اما فاقد درک واقعی، زمینه یا تفکر اصیل است. ما اساساً با مدل‌ های آماری پیچیده‌ ای کار می‌ کنیم که علیرغم قابلیت‌ های چشمگیرشان، حتی با هوش عمومی یک گربه خانگی نیز مطابقت ندارند.

خطرات هوش مصنوعی در آینده
خطرات هوش مصنوعی در آینده به شدت جدی است!

پس هوش مصنوعی خطرناک نیست؟

اما این بدان معنا نیست که هوش مصنوعی قدرتمند یا بالقوه خطرناک نیست. تهدیدات واقعی آن نه در آینده‌ ای فرضی از ماشین‌ های آگاه، بلکه در نحوه استفاده امروز از آن و عواقبی که برای آینده (انسان) ما خواهد داشت، نهفته است: تأثیرگذاری بر رفتار، انتشار اطلاعات نادرست، از بین بردن حریم خصوصی و آنچه که در حال حاضر می‌ توانیم مشاهده کنیم، به طور بالقوه توانایی‌ های شناختی خودمان را کاهش می‌ دهد. اینها چالش‌ هایی هستند که باید به آنها بپردازیم، زیرا واقعی هستند و از قبل یک مشکل محسوب می‌ شوند.

من کمی طوفان فکری و تحقیق انجام داده‌ ام و در اینجا ۱۳ حوزه کلیدی «نگرانی» را آورده‌ ام – فکر می‌ کنم این عدد کمی به عنوان من حال و هوای ملودرام اضافه کرده است. اما برخلاف پیش‌بینی‌ های معمول آخرالزمانی، اینها بر اساس فناوری فعلی و تکامل منطقی آن هستند. بنابراین، برخلاف برخی دیگر، من از تهدید های علمی تخیلی زیاد دوری خواهم کرد، بلکه به واقعیت عملی چگونگی توسعه و پیاده‌سازی هوش مصنوعی در دنیای ما نگاه خواهم کرد.

به طور کلی ۴ دسته وجود دارد که من آنها را از هم متمایز می‌ کنم تا فکر کردن به «خوشه‌ ها» آسان‌تر شود. البته خطرات بسیار بیشتری وجود دارد و هر صنعت و موضوع اجتماعی ممکن است در آنجا پوشش داده شود.

تهدید های حقوق و آزادی‌ های فردی
تهدید های عدالت اقتصادی و اجتماعی
تهدید های ایمنی و امنیت
تهدید های وجودی و بلندمدت

خطر وجودی ناشی از هوش مصنوعی فوق هوشمند؟

اول. تهدیدات برای حقوق و آزادی‌ های فردی

تصور کنید در جهانی از خواب بیدار شوید که هر حرکت، تراکنش و تعاملی با دقت ردیابی و تجزیه و تحلیل می‌ شود. این داستان علمی تخیلی نیست . این واقعیت بالقوه نظارت بدون کنترل هوش مصنوعی است. با پیچیده‌تر شدن سیستم‌ های هوش مصنوعی در پردازش حجم عظیمی از داده‌ ها، آنها در حال ایجاد قابلیت بی‌سابقه‌ ای برای نظارت گسترده هستند که در مقایسه با آن، کتاب ۱۹۸۴ جورج اورول عجیب به نظر می‌ رسد.

این کار به اندازه کافی معصومانه شروع می‌ شود، با ویژگی‌ های راحتی مانند تشخیص چهره برای باز کردن قفل تلفن یا توصیه‌ های خرید شخصی‌سازی شده. اما به تدریج شبکه گسترده‌تر می‌ شود. شهر های هوشمند در حال استقرار دوربین‌ های مجهز به هوش مصنوعی برای «امنیت عمومی» هستند. کارفرمایان از تجزیه و تحلیل احساسات برای نظارت بر بهره‌وری کارکنان استفاده می‌ کنند. سیستم‌ های اعتبار اجتماعی، که در حال حاضر در برخی از نقاط جهان به واقعیت تبدیل شده‌ اند، در حال گسترش جهانی هستند.

خطر واقعی در همگرایی این سیستم‌ ها نهفته است. وقتی هوش مصنوعی می‌ تواند فعالیت رسانه‌ های اجتماعی، حرکات فیزیکی، عادات خرید و روابط بین فردی شما را با هم مرتبط کند، یک پروفایل جامع ایجاد می‌ کند که می‌ تواند رفتار انسان را پیش‌بینی – و به طور بالقوه کنترل – کند. تأثیر منفی آن بر آزادی شخصی می‌ تواند عمیق باشد، زیرا افراد با دانستن اینکه دائماً تحت نظر و قضاوت هستند، شروع به خودسانسوری و اصلاح رفتار خود می‌ کنند.

 

دوم. تهدید های عدالت اقتصادی و اجتماعی

ظهور فناوری هوش مصنوعی در حال ایجاد شکل جدیدی از استعمار دیجیتال است که می‌ تواند نابرابری‌ های اقتصادی قبلی را در مقایسه کوچک جلوه دهد. ما شاهد ظهور چیزی هستیم که می‌ توان آن را «اشرافیت هوش مصنوعی» یا «فئودالیسم هوش مصنوعی» نامید – گروه کوچکی از شرکت‌ ها و ملت‌ ها که نه تنها ثروت، بلکه ابزار تولید ثروت در اقتصاد مدرن را نیز کنترل می‌ کنند. وقتی این موضوع را بیشتر بررسی کنید و به واقعیت‌ های جایگزین، جهان‌ های جداگانه و مفاهیمی مانند متاورس فکر کنید، می‌ توانید ببینید که چرا می‌ تواند جهان را بیشتر تقسیم کند.

اما بیایید ابتدا در نظر بگیریم که چگونه این امر ممکن است توسعه یابد:

شرکت‌ هایی که در حال حاضر بر توسعه هوش مصنوعی تسلط دارند، همچنان با سرعت نمایی به جمع‌آوری مزایا ادامه می‌ دهند. آنها داده‌ ها، استعداد و منابع محاسباتی لازم برای پیشرو ماندن را دارند. هر پیشرفتی شکاف را گسترش می‌ دهد و رقابت را برای تازه واردان به طور فزاینده‌ ای غیرممکن می‌ کند. در همین حال، ملت‌ هایی که قابلیت‌ های قوی هوش مصنوعی ندارند، خود را به طور فزاینده‌ ای وابسته به کشور های غنی از هوش مصنوعی می‌ بینند و اشکال جدیدی از بردگی فناوری ایجاد می‌ کنند.

پیامد های این امر فراتر از نابرابری اقتصادی ساده است. وقتی سیستم‌ های هوش مصنوعی همه چیز را از تخصیص منابع گرفته تا پیش‌بینی بازار کنترل می‌ کنند، کسانی که هوش مصنوعی را کنترل می‌ کنند، عملاً اقتصاد جهانی را کنترل می‌ کنند. کشور ها و شرکت‌ های کوچک‌تر به منابع داده و بازار های صرف برای محصولات مبتنی بر هوش مصنوعی تبدیل می‌ شوند و قادر به رقابت یا توسعه قابلیت‌ های خود نیستند.

 

سوم. جابجایی شغل و انتقال نیروی کار

یکی از مضامین بسیار تبلیغ‌شده – «هوش مصنوعی مشاغل ما را خواهد گرفت». موج آتی اتوماسیون مبتنی بر هوش مصنوعی از بسیاری جهات فقط یک انقلاب صنعتی دیگر است – این یک تحول اساسی در فعالیت اقتصادی انسان و نحوه ایجاد ارزش است. اما یک چیز با گذار های فناوری قبلی که در درجه اول بر کار فیزیکی تأثیر می‌ گذاشتند، بسیار متفاوت است: هوش مصنوعی تهدید می‌ کند که همزمان وظایف دستی و شناختی را خودکار کند و مقیاسی بی‌سابقه از جابجایی ایجاد کند.

این در درازمدت معنای زیادی ندارد. اما در کوتاه‌مدت حرکت و تغییر زیادی وجود خواهد داشت . به‌ویژه برای کشور های توسعه‌یافته. (برای اطلاعات بیشتر در این مورد به بخش شکاف دیجیتال مراجعه کنید).

این گذار احتمالاً به صورت موجی رخ خواهد داد، هر موج مخرب‌تر از موج قبلی است. اما در نهایت مانند همیشه فناوری در حال تکامل است. ابتدا اتوماسیون وظایف روزمره – حمل و نقل، خدمات مشتری، ورود داده‌ ها – آغاز می‌ شود. سپس هوش مصنوعی شروع به ورود به خدمات حرفه‌ ای – کار حقوقی، تشخیص پزشکی، تجزیه و تحلیل مالی – می‌ کند. در نهایت، حتی نقش‌های خلاقانه و استراتژیک نیز با سیستم‌ های هوش مصنوعی پیچیده‌تر، تقویت یا جایگزین می‌ شوند.

 

بحران واقعی فقط بیکاری نیست!

راه‌ های زیادی برای وقوع این امر وجود دارد. ممکن است یک “طبقه منسوخ” دائمی از کارگرانی ایجاد کند که مهارت‌ هایشان جایی در اقتصاد جدید ندارد. یا ممکن است به سادگی شاهد ظهور چیزی باشیم که من آن را بخش چهارم اقتصادی می‌ نامم (به گسترش کشاورزی، تولید و اکنون تقسیم آن به خدمات مستقیم و خدمات سرگرمی فکر کنید). ما در حال حاضر شاهد رشد یک صنعت جدید هستیم که در آن محتوا، سرگرمی، تعامل و توجه صرف به یک ارز ارزشمند تبدیل می‌ شود. در آینده‌ ای که تقاضای کمتری برای کالا ها و خدمات فیزیکی وجود دارد، جهانی پر از مشاغل سرگرمی و توجه در حال ظهور است.

اینکه کدام یک از این دو سناریو به وقوع خواهد پیوست، حدس هر کسی است، اما من قطعاً به شدت طرفدار نسخه خودم هستم، زیرا به سادگی طبیعی‌تر خواهد بود و هیچ انقلاب صنعتی تاکنون منجر به اشتغال کمتر (در واقع، بیشتر) نشده است.

چهارم.خطرات مراقبت‌ های بهداشتی ناشی از هوش مصنوعی مغرضانه یا ناقص

ما قبلاً در مورد تعصب در داده‌ ها و هوش مصنوعی صحبت کرده‌ ایم. و مراقبت‌ های بهداشتی یکی از داغ‌ترین حوزه‌ هایی است که مردم دوست دارند هوش مصنوعی در آن به کار گرفته شود. اما ادغام هوش مصنوعی در مراقبت‌ های بهداشتی یک تهدید به ویژه موذیانه است. زیرا اشتباهات آن اغلب تا زمانی که آسیب قابل توجهی وارد نشود، فوراً آشکار نمی‌ شوند.

ما همین حالا هم شاهدیم که چگونه سیستم‌ های هوش مصنوعی که عمدتاً بر اساس داده‌ های گروه‌ های جمعیتی خاص آموزش دیده‌ اند، می‌ توانند هنگام اعمال بر دیگران، فرضیات خطرناک و اشتباهی داشته باشند.

سناریویی را تصور کنید که در آن هوش مصنوعی به دروازه‌بان اصلی دسترسی به مراقبت‌ های بهداشتی تبدیل می‌ شود. ممکن است در ظاهر کارآمد به نظر برسد.  اما در زیر آن، شبکه پیچیده‌ ای از سوگیری‌ ها و فرضیات نهفته در سیستم نهفته است. یک هوش مصنوعی می‌ تواند به طور مداوم سطح درد را در گروه‌ های قومی خاص بر اساس سوگیری‌ های تاریخی در داده‌ های آموزشی، کمتر از حد واقعی تخمین بزند.  یا بر اساس تحلیل‌ های هزینه-فایده، درمان‌ های کم‌ تهاجمی‌ تری را برای بیماران مسن توصیه کند که سال‌ های باقی‌مانده آنها را بی‌ارزش می‌ کند.

 

 

پنجم. تهدیدات برای ایمنی و امنیت

 

صنعت مالی را نمی‌ توان نادیده گرفت. زیرا به آرامی حدود ۹۰٪ از کل ارزش جهان را تشکیل می‌ دهد . بله، کمتر از ۱۰٪ در واقع ارزش واقعی مانند زمین، خانه، نیروی کار، کالا ها و غیره است و بقیه فقط ابزار های مالی و صنعت مالی هستند. بنابراین طبیعی است که چنین غولی بخواهد بهینه‌سازی کند. پس باید خطرات هوش مصنوعی را بدانید.

حال یک سیستم مالی را تصور کنید که در آن تصمیمات میلی‌ ثانیه‌ ای گرفته شده توسط الگوریتم‌ های هوش مصنوعی (مثلا الگوریتم یوتیوب )می‌ تواند سریع‌تر از واکنش هر انسانی به فجایع اقتصادی جهانی تبدیل شود. ما فقط در حال نظریه‌پردازی نیستیم – ما در حال حاضر در مراحل اولیه این واقعیت زندگی می‌ کنیم. سقوط ناگهانی سال ۲۰۱۰ تنها پیش‌نمایشی از آنچه می‌ تواند رخ دهد وقتی سیستم‌ های معاملاتی هوش مصنوعی به روش‌ های غیرمنتظره‌ ای تعامل می‌ کنند، بود.

خطر واقعی در پیچیدگی و ارتباط متقابل فزاینده این سیستم‌ ها نهفته است. بازار های مالی مدرن اساساً در حال تبدیل شدن به شبکه‌ ای از سیستم‌ های هوش مصنوعی هستند که با سایر سیستم‌ های هوش مصنوعی معامله می‌ کنند و هر کدام با سرعت و مقیاسی فراتر از درک انسان عمل می‌ کنند. وقتی این سیستم‌ ها به روش‌ های غیرمنتظره‌ ای تعامل می‌ کنند، نتایج می‌ توانند فاجعه‌بار و تقریباً غیرممکن برای پیش‌بینی یا پیشگیری باشند.

خطرات هوش مصنوعی جهانی
خطرات هوش مصنوعی جهانی

 

ششم.سیستم‌ های سلاح‌ های خودمختار و آینده جنگ

البته، ما نمی‌ توانیم ترمیناتور را در خطرات هوش مصنوعی نادیده بگیریم . اما به روشی متفاوت. توسعه سیستم‌ های سلاح‌ های خودمختار شاید فوری‌ترین تهدید وجودی ناشی از فناوری هوش مصنوعی باشد. ما به سرعت در حال نزدیک شدن به آینده‌ ای هستیم که در آن ماشین‌ ها می‌ توانند تصمیمات مرگ و زندگی بگیرند. این از مهمترین خطرات هوش مصنوعی است.

بدون دخالت انسان، ماهیت جنگ را اساساً تغییر می‌ دهد و به طور بالقوه بقای گونه ما را تهدید می‌ کند. در درگیری‌ های اخیر، ما شاهد اتوماسیون گسترده هدف‌گیری در اسرائیل، پهپاد ها و سگ‌ های رباتیک مسلح یا بدتر از آن بوده‌ ایم.

این پیشرفت احتمالاً تدریجی اما اجتناب‌ناپذیر خواهد بود. این پیشرفت با سیستم‌ های “نیمه مستقل” آغاز می‌ شود که هنوز برای تصمیمات مرگبار به مجوز انسان نیاز دارند. اما از آنجایی که مزایای نظامی، زمان واکنش سریع‌تر را ایجاب می‌ کند، نقش انسان به تدریج کاهش می‌ یابد. در نهایت، می‌ توانیم شاهد سیستم‌ های تسلیحاتی کاملاً مستقل باشیم که با سرعت و مقیاسی درگیر نبرد می‌ شوند که کنترل انسان را غیرممکن می‌ کند.

 

هفتم.ایجاد مناطق جنگی خودکار دائمی

و علاوه بر سیستم‌ هایی که می‌ توانند به معنای واقعی کلمه شما را بکشند، تهدیداتی از درون اینترنت نیز وجود دارد. آینده امنیت سایبری فقط مربوط به دفاع در برابر هکر های انسانی نیست . بلکه مربوط به مواجهه با سیستم‌ های هوش مصنوعی است که می‌ توانند آسیب‌ پذیری‌ ها را سریع‌تر از آنچه یک انسان می‌ تواند آنها را وصله کند، شناسایی و بهره‌برداری کنند. ما در حال ورود به دورانی هستیم که حملات مبتنی بر هوش مصنوعی می‌ توانند به طور بالقوه از بهترین دفاع‌ های ما پیشی بگیرند، قبل از اینکه حتی بدانیم مورد حمله قرار گرفته‌ ایم.

سیستم‌ های هوش مصنوعی را تصور کنید که می‌ توانند به طور خودکار ایمیل‌ های فیشینگ قانع‌کننده ایجاد کنند، بدافزار های پیچیده‌ ای ایجاد کنند که برای جلوگیری از شناسایی تکامل می‌ یابند، یا حملات هماهنگ را به طور همزمان در هزاران سیستم هماهنگ کنند. اینها تهدید های فرضی نیستند – آنها تکامل منطقی روند های فعلی در جرایم سایبری هستند.

نگران‌کننده‌ترین جنبه، پتانسیل هوش مصنوعی در خطرات هوش مصنوعی برای خودکارسازی کل چرخه حمله، از شناسایی گرفته تا بهره‌برداری و پنهان‌کاری است. اگر سیستم‌ های هوش مصنوعی بتوانند به طور مستقل اهداف را شناسایی کنند، استراتژی‌ های حمله را توسعه دهند و آنها را با سرعت ماشین اجرا کنند، مدل‌ های امنیتی سنتی ما منسوخ خواهند شد.

 

هشتم. تهدیدات وجودی و بلندمدت

 

از آنجایی که اکنون حتی راکتور های هسته‌ ای را برای تغذیه مراکز داده جدید و گرسنه هوش مصنوعی می‌ سازیم، باید در مورد هزینه‌ های زیست‌محیطی پنهان انقلاب هوش مصنوعی خود نیز صحبت کنیم، هزینه‌ هایی که در حال ظهور هستند و اعداد و ارقام آنها سرسام‌آور است. در حالی که ما از قابلیت‌ های هوش مصنوعی شگفت‌زده می‌ شویم، در زیر سطح آن، اشتهای سیری‌ناپذیری برای انرژی نهفته است که تهدید می‌ کند بحران اقلیمی ما را تسریع کند.

هر چت با یک دستیار هوش مصنوعی، هر تصویر تولید شده، هر مدل آموزش دیده – همه آنها دارای برچسب هزینه زیست‌محیطی هستند که ما تازه شروع به درک آن کرده‌ ایم. در جهانی که باید انرژی را تأمین کنیم، جایی که باید در مورد محل استفاده از انرژی هوشمند باشیم، استفاده از آن برای هوش مصنوعی – و همچنین بلاکچین – واقعاً برای بشریت خطرناک است.

مقیاس را در نظر بگیرید:

آموزش یک مدل گفتاری بزرگ می‌ تواند انرژی بیشتری نسبت به مصرف سالانه برخی از شهر های کوچک مصرف کند. مراکز داده در حال تبدیل شدن به کارخانه‌ های جدید عصر دیجیتال هستند، اما به جای دودکش‌ های قابل مشاهده، آنها بی‌صدا منابع آب و شبکه‌ های برق ما را تخلیه می‌ کنند. در مکان‌هایی مانند آریزونا و نوادا، تأسیسات هوش مصنوعی با نیاز های کشاورزی و مسکونی برای منابع آب گرانبها رقابت می‌ کنند.

بحران واقعی خطرات هوش مصنوعی با شتاب گرفتن پذیرش هوش مصنوعی در سطح جهانی پدیدار می‌ شود. با هجوم شرکت‌ ها و کشور های بیشتر برای توسعه قابلیت‌ های هوش مصنوعی خود، می‌ توانیم شاهد انفجاری در مصرف انرژی باشیم که از سطوح فعلی فراتر می‌ رود. طنز ماجرا اینجاست که در حالی که ما در حال توسعه سیستم‌ های هوش مصنوعی هستیم که می‌ توانند به حل تغییرات اقلیمی کمک کنند، در عین حال به تسریع آن نیز کمک می‌ کنیم.

نهم.بحران در تولید نیمه‌ هادی‌ ها به دلیل کمبود آب

“این من نبودم که این تصمیم را گرفتم”. ما به سرعت در حال نزدیک شدن به یک بحران پاسخگویی خطرات هوش مصنوعی در مدیریت هوش مصنوعی هستیم، جایی که پیچیدگی سیستم‌ های هوش مصنوعی، تعیین مسئولیت برای تصمیمات آنها را به طور فزاینده‌ ای دشوار می‌ کند. این فقط مربوط به اشکالات فنی نیست – بلکه مربوط به سوالات اساسی عدالت و مسئولیت در جهانی است که توسط هوش مصنوعی هدایت می‌ شود.

این مشکل به ویژه در مورد تصمیمات پرخطر حاد است. اگر یک سیستم هوش مصنوعی از وام دادن به کسی خودداری کند، چه کسی مقصر است – توسعه‌دهندگان، ارائه‌دهندگان داده‌ های آموزشی، موسسه‌ ای که از آن استفاده می‌ کند یا خود الگوریتم؟ با پیچیده‌تر و به هم پیوسته‌تر شدن این سیستم‌ ها، ردیابی زنجیره مسئولیت تقریباً غیرممکن می‌ شود.

نگران‌کننده‌ترین جنبه، ایجاد بالقوه “مناطق بدون مسئولیت” است، جایی که تصمیمات مهم تأثیرگذار بر زندگی انسان‌ ها بدون پاسخگویی روشن گرفته می‌ شود. این می‌ تواند سیستمی ایجاد کند که در آن آسیب‌پذیرترین اعضای جامعه در صورت آسیب دیدن سیستم‌ های هوش مصنوعی، هیچ راه چاره موثری نداشته باشند.

خطرات هوش مصنوعی در آینده
خطرات هوش مصنوعی در آینده حتی تا پایان جهان پیش بینی می شود

 

دهم.معضلات اخلاقی در سیستم‌ های خودمختار

البته، موضوعی که تقریباً همیشه هر بحثی را از بین می‌ برد نیز وجود دارد – «اخلاق». ادغام هوش مصنوعی در فرآیند های تصمیم‌گیری حیاتی، ما را مجبور می‌ کند با سوالات اخلاقی روبرو شویم که پاسخ روشنی برای آنها وجود ندارد. چگونه ماشین‌ ها را برای تصمیم‌گیری‌ های اخلاقی برنامه‌ریزی کنیم که حتی انسان‌ها نیز با آنها دست و پنجه نرم می‌ کنند؟ این چالش فقط نظری نیست – با استقرار سیستم‌ های هوش مصنوعی در موقعیت‌های مرگ و زندگی، این چالش به طور فزاینده‌ ای عملی می‌ شود.

به وسایل نقلیه خودمختاری فکر کنید که با تصادفات اجتناب‌ناپذیر روبرو می‌ شوند، یا سیستم‌ های هوش مصنوعی پزشکی که تصمیم می‌ گیرند چگونه در یک بحران منابع را تخصیص دهند. این سناریو ها نه تنها به راه‌حل‌ های فنی، بلکه به قضاوت‌ های اخلاقی اساسی نیز نیاز دارند. چه کسی می‌ تواند این ترجیحات اخلاقی را برنامه‌ریزی کند؟ این سیستم‌ ها باید ارزش‌ های چه کسی را منعکس کنند؟

چالش‌برانگیزترین جنبه، پتانسیل سیستم‌ های هوش مصنوعی برای تصمیم‌گیری‌ های اخلاقی در مقیاس و سرعتی است که نظارت انسانی را غیرممکن می‌ کند. وقتی هزاران تصمیم از این دست در هر ثانیه گرفته می‌ شود، چگونه می‌ توانیم اطمینان حاصل کنیم که آنها با ارزش‌ های انسانی و اصول اخلاقی سازگار هستند؟

 

این پست برای شما مفید بود؟

این پست چندتا ستاره داره ؟

میانگین رتبه : 5 / 5. تعداد آرا : 1

اولین نفری باشید که به این پست امتیاز می دهید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *