کد خبر: ۶۱۳۲۵۸
تاریخ انتشار: ۱۲:۱۶ - ۲۳ اسفند ۱۳۹۹

خراسان: هم اکنون هوش مصنوعی یکی از بزرگ ترین ابزارهای پیشرفت در جهان به شمار می رود. این دستاورد توانسته تحول بزرگی در صنایع ایجاد کند ولی این تکنولوژی، با همه دستاوردهایش هنوز گام های نخست را طی می کند و به همین دلیل خطاهای زیادی دارد و ممکن است خطراتی را هم برای بشر به همراه داشته باشد. به جز خطراتی که خود هوش مصنوعی دارد، استفاده های نادرست از آن هم می‌تواند برای نسل بشر خطر ‌آفرین شود. امروز باهم برخی از خطراتی را که هوش مصنوعی می تواند برای انسان به همراه داشته باشد، مرور می کنیم.

هوش مصنوعی خیلی ساده گول می خورد

با وجود پیشرفت چشمگیر سیستم بینایی ماشین های هوشمندطی سال های اخیر، همچنان احتمال بروز خطاهای جدی توسط آن وجود دارد. این خطاها آن قدر زیاد است که می تواند رانندگی با خودروهای خودران را بسیار خطرناک کند. به طور مثال روی یک سیب نوشته اند آی پد و هوش مصنوعی 99 درصد آن را آی پد تشخیص داده است. البته این خطاها به صورت طبیعی و با عکس های معمولی هم رخ داده است که باعث نگرانی بیشتر می شود چون نشان می دهد احتمال بروز خطاهای واقعی و برنامه ریزی نشده در چنین سیستم هایی وجود دارد.

خطرهای هوش مصنوعی

محققانی از دانشگاه های برکلی، واشنگتن و شیکاگو، دیتابیسی از 7500 عکس متضاد طبیعی را با چندین سیستم بینایی ماشین امتحان کردند و متوجه شدند دقتشان بیش از 90 درصد افت می کند و در برخی موارد نرم افزار تنها قادر به تشخیص 2 تا 3درصد تصاویر است. برای مثال در عکس های زیر، هوش مصنوعی از چپ به راست سوژه تصاویر را راسو، موز، شیر دریایی و دستگیره آشپزخانه تشخیص داده این در حالی است که دیدن سنجاقک در این تصاویر برای ما انسان ها بسیار ساده است.

چنگ‌اندازی هوش مصنوعی به حریم خصوصی

جدای از خطر تشخیص اشتباه هوش مصنوعی باید به یکی دیگر از خطرات هوش مصنوعی اشاره کنیم. حریم خصوصی از ابتدایی‌ترین حقوق بشر است. با این همه، ممکن است چنین مفهومی، در آینده‌ای نه چندان دور، به دلیل استفاده نادرست از فناوری هوش مصنوعی کاملا پایمال شود. امروزه، به لطف پیشرفت‌ در هوش مصنوعی، ردیابی افراد به سادگی آب خوردن شده است.

با فناوری‌ تشخیص چهره، شناسایی شما در انبوهی از جمعیت به سادگی امکان‌پذیر است و برخی دوربین‌های امنیتی در برخی کشورها به این فناوری مجهز هستند. توانایی گردآوری داده‌های هوش مصنوعی این امکان را برای وب‌سایت‌های فراهم‌‌آورنده و شبکه‌های مختلف اجتماعی به وجود می‌آورد که یک جدول زمانی از فعالیت‌های روزانه شما را در اختیار داشته باشند. البته در گزارشی در همین صفحه از اشتباهات نژاد پرستانه ای نوشته ایم که هوش مصنوعی در تشخیص چهره تاکنون داشته است.

جنگ روبات های سرباز

روبات های کشنده، روبات‌های سربازی هستند که می‌توانند مطابق برنامه از پیش تعیین ‌شده هدف خود را جست‌وجو کنند یا به صورت کاملا مستقل عملیات هدف گذاری را انجام دهند. طبق گزارش ها، کمابیش تولید چنین روبات‌هایی در دستور کار همه کشورهای پیشرفته قرار گرفته است.

برپایه گفته‌های یک مقام ارشد نظامی چینی، پیش بینی شده جنگ‌های آینده به دست انسان انجام نمی‌شود بلکه گرداننده آن‌ها روبات‌های سرباز خواهند بود. به کارگیری چنین جنگ‌افزارهایی، از دیگر نگرانی‌های موجود در زمینه هوش مصنوعی است. چه می‌شود اگر این روبات‌ها سرکشی کنند و کارهای خطرآفرینی انجام دهند یا اگر نتوانند میان اهداف خود و افراد بی‌گناه تمیز قایل شوند؟ در این حالت، چه کسی پاسخگوی این پیشامد خواهد بود؟

هوش مصنوعی و از بین رفتن شغل انسان ها

براساس گزارش منتشر شده توسط سازمان جهانی Mckinsey، حدود۸۰۰ میلیون کار و پیشه در سراسر جهان تا سال ۲۰۳۰ توسط هوش مصنوعی انجام خواهد شد. حال این پرسش به وجود می آید چه بر سر انسان‌هایی خواهد آمد که قبلا این 800 میلیون شغل را داشته اند؟ البته در این میان برخی بر این باورند که شغل های جدید بسیاری به خاطر وجود هوش مصنوعی ایجاد خواهند شد، بنابراین، یک ترازی بین مشاغل از دست رفته و مشاغل جدید ایجاد می‌شود. این افرادبر این باورند که بعد از این، مردم به جای انجام پیشه‌های زمان‌بر و سخت، زمان بیشتری را برای انجام کارهای مهم و گذراندن وقت با دوستان و خانواده‌هایشان خواهند داشت.

استفاده تروریستی از هوش مصنوعی

درحالی که هوش مصنوعی می‌تواند تا اندازه چشم‌گیری در انجام کارهای سخت و طاقت فرسا به یاری آدمی بشتابد، متاسفانه در مقابل می‌تواند در دست افراد بی صلاحیت قرار گیرد و کمک بزرگی برای تروریست‌ها در انجام حملات دهشتناک باشد. هم اکنون، برخی از بنگاه‌های تروریستی برای انجام حملات خود در دیگر کشورها، از هواپیماهای بدون سرنشین بهره‌برداری می‌کنند. ISIS (داعش) نخستین حمله پهپادی موفق خود را در سال ۲۰۱۶ انجام داد که منجر به کشته شدن دو نفر در عراق شد. این مسئله اهمیت وضع قوانینی سخت‌گیرانه برای استفاده از هوش مصنوعی و دسترسی افراد به آن را چندین برابر می‌کند.

تاثیر تعصبات نژاد پرستانه بر هوش مصنوعی

حقیقت تلخی وجود دارد که گهگاه آدمی درخصوص یک مذهب، باور، ملت یا نژاد تعصباتی خشمگینانه و گاهی بی‌رحمانه دارد. چنین تعصباتی کاملا ناآگاهانه نیز می‌تواند توسط افرادی متعصب به سامانه‌های هوش مصنوعی (که به دست انسان گسترش داده می‌شوند) وارد و باعث سوگیری‌های نادرستی شود. برای مثال، آمازون به تازگی آگاه شده که یک مدل یادگیری ماشین بر پایه الگوریتم استخدام، کاملا علیه زنان و مغرضانه است.

این الگوریتم با توجه به شمار زیاد رزومه کاری کارمندان استخدام شده در ۱۰ سال گذشته، آموزش داده و طراحی شده است. از آن جا که بیشتر کارمندان، آقایان بودند، در این الگوریتم مردها ارزشمندتر از زنان در نظر گرفته شده‌اند. در نمونه دیگری گوگل با به کارگیری فناوری پردازش تصویر، عکس‌های دو فرد با نژاد آفریقایی-آمریکایی را با تگ «گوریل» ذخیره کرده که نشانه واضح از تعصب و خشک‌اندیشی نژادی است.


نظر شما
نام:
ایمیل:
* نظر:
طراحی و تولید: "ایران سامانه"