تهدیدها و خطرات هوش مصنوعی

تهدیدها و خطرات هوش مصنوعی | نگرانی از هوش مصنوعی | نسیم اطلس
وبلاگ

تهدیدها و خطرات هوش مصنوعی

در جهان امروز، روز به روز هوش مصنوعی پیچیده‌تر و گسترده‌تر می‌شود و به دنبال آن نگرانی ها در ارتباط با خطرات رشد هوش مصنوعی نیز بیشتر می‌شود. اگر شما هم از آن دسته افراد علاقه مند به فناوری اطلاعات هستید که معتقدند نگرانی از هوش مصنوعی امری غیرمنطقی و غیرطبیعی است زیرا چیزی جز فایده برای بشر ندارد پس بهتر است با ما همراه باشید زیرا ما در این مقاله قصد داریم تا به بیان بزرگترین تهدیدهای هوش مصنوعی برای بشر بپردازیم و آگاهی شما را در این زمینه افزایش دهیم.

 

نگرانی از هوش مصنوعی


جفری هینتون، که به علت اقدامات مهم خود در زمینه یادگیری ماشین به عنوان پدرخوانده هوش مصنوعی شناخته می شود، این چنین بیان می کند که: «این چیزها می توانند از ما هوشمندتر شوند و مدیریت را به دست بگیرند و اکنون باید نگران این باشیم که چگونه از وقوع آن جلوگیری کنیم». او موقعیت خود را در گوگل ترک کرد تا بتواند درباره خطرات هوش مصنوعی صحبت کند و به این نکته اشاره کرد که حتی بخشی از او از اقداماتی که در زمینه هوش مصنوعی انجام داده است، پشیمان است.


جفری هینتون تنها کسی نیست که این نگرانی را دارد. ایلان ماسک، بنیانگذار تسلا، همراه با بیش از 1000 رهبر فعال در حوزه فناوری، در نامه ای سرگشاده در سال 2023 تاکید کردند که باید آزمایش های بزرگ هوش مصنوعی متوقف شود و به این اشاره کردند که این فناوری می تواند "خطرات عمیقی برای جامعه و بشریت ایجاد کند."

خطرات هوش مصنوعی


سوالاتی در مورد اینکه چه کسی و برای چه اهدافی هوش مصنوعی را توسعه می‌دهد، درک نکات منفی بالقوه آن را ضروری‌تر می‌کند. در زیر نگاهی دقیق تر به خطرات احتمالی هوش مصنوعی می اندازیم و چگونگی مدیریت خطرات آن را بررسی می کنیم.
جامعه فناوری مدت هاست در مورد تهدیدات ناشی از هوش مصنوعی بحث کرده است. این تهدیدات عبارتند از:

عدم شفافیت به عنوان یکی از خطرات هوش مصنوعی


درک مدل‌های هوش مصنوعی و یادگیری عمیق، حتی برای کسانی که مستقیماً با این فناوری کار می‌کنند، دشوار است. این منجر به عدم شفافیت در مورد چگونگی و چرایی نتیجه‌گیری هوش مصنوعی می‌شود. این امر موجب می شود تا نتوان در مورد اینکه الگوریتم‌های هوش مصنوعی از چه داده‌هایی استفاده می‌کنند یا اینکه چرا ممکن است تصمیم‌های مغرضانه یا پر خطر بگیرند، توضیح کاملی داد.

 

از دست دادن شغل از مهمترین تهدیدات هوش مصنوعی


اتوماسیون شغلی مبتنی بر هوش مصنوعی یک نگرانی مبرم است زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبت های بهداشتی پذیرفته شده است. عده ای معتقدند که تا سال 2030، سیصد میلیون شغل تمام وقت ممکن است به دلیل اتوماسیون هوش مصنوعی از بین برود.
با پیشرفت ربات‌های هوش مصنوعی و افزایش هوش و مهارت آن‌ها، نیاز به انسان ها برای انجام برخی از مشاغل کاهش میابد.


همانطور که فناوری‌های هوش مصنوعی به توسعه و کارآمدتر شدن ادامه می‌دهند، نیروی کار باید تلاش کند با کسب مهارت‌های جدید در عرصه رقابت باقی بماند. این امر به ویژه برای کارگران با مهارت پایین در نیروی کار فعلی صادق است.
هوش مصنوعی در حال حاضر تأثیر قابل توجهی بر حوزه پزشکی دارد و متخصصان حوزه هوش مصنوعی معتقدند که رشته هایی مانند حقوق و حسابداری نیز برای تصاحب هوش مصنوعی آماده شده اند. زیرا هوش مصنوعی توانایی ترکیب و ارائه جامع بهترین قرارداد ممکن را برای دستیابی به نتیجه دلخواهتان را دارد و احتمالاً جایگزین بسیاری از وکلا خواهد شد.

 

اعمال نفوذ در زمینه اجتماعی از طریق الگوریتم های هوش مصنوعی


این ترس به واقعیت تبدیل شده است، زیرا سیاستمداران برای ترویج دیدگاه‌های خود به پلتفرم‌ها متکی شدند.


رسانه‌ها و اخبار آنلاین پر شدند از تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی، تغییر صداهای هوش مصنوعی و همچنین دیپ فیک که در حوزه‌های سیاسی و اجتماعی نفوذ کرده‌اند. با استفاده از این فناوری‌ها به راحتی می توان تصویر یک چهره با چهره دیگر در یک تصویر یا ویدیوی موجود را جایگزین کرد. در نتیجه، افراد شرور راه دیگری برای به اشتراک گذاشتن اطلاعات نادرست و تبلیغات جنگی دارند و شرایطی را ایجاد می‌کنند که در آن تشخیص اخبار معتبر و ناقص تقریبا غیرممکن است. هیچکس نمی داند چه چیزی واقعی است و چه چیزی نیست و این یک مسئله بزرگ خواهد بود.


این فناوری می تواند توسط جنایتکاران، دولت های سرکش، افراط گرایان اخلاقی، یا صرفاً گروه های ذینفع خاص برای تحت تاثیر قرار دادن مردم برای منافع اقتصادی یا سیاسی مورد استفاده قرار گیرد.

 

نظارت اجتماعی به عنوان یک نگرانی از هوش مصنوعی


هوش مصنوعی بر حریم خصوصی و امنیت شبکه نیز تأثیر منفی می‌گذارد. نمونه بارز آن استفاده چین از فناوری تشخیص چهره در ادارات، مدارس و سایر مکان‌ها است. با استفاده از این فناوری دولت چین ممکن است بتواند علاوه بر ردیابی حرکات یک فرد، داده های کافی برای نظارت بر فعالیت ها، روابط و دیدگاه های سیاسی یک فرد جمع آوری کند

عدم حفظ حریم خصوصی داده ها با استفاده از ابزارهای هوش مصنوعی


اگر با یک چت بات هوش مصنوعی بازی کرده باشید یا یک فیلتر چهره هوش مصنوعی را به صورت آنلاین امتحان کرده باشید، داده های شما جمع آوری می شود. اما به کجا می رود و چگونه از آن استفاده می شود؟ سیستم‌های هوش مصنوعی اغلب داده‌های شخصی را برای سفارشی‌سازی تجربیات کاربر یا کمک به آموزش مدل‌های هوش مصنوعی مورد استفاده شما جمع‌آوری می‌کنند (مخصوصاً اگر ابزار هوش مصنوعی رایگان باشد).


حتی ممکن است زمانی که داده‌ها به یک سیستم هوش مصنوعی داده می‌شوند به راحتی در اختیار سایر کاربران قرار بگیرند مانند باگی که در سال 2023 در ChatGPT رخ داد (به برخی از کاربران اجازه داد تاریخچه چت کاربر فعال دیگر را ببینند).


با اینکه قوانینی برای محافظت از اطلاعات شخصی در برخی کشورها وجود دارد، اما هیچ قانون صریحی وجود ندارد که از شهروندان در برابر آسیب از بین رفتن حریم خصوصی توسط هوش مصنوعی، محافظت کند.

 

تضعیف اخلاق و حسن نیت، از جمله خطرات هوش مصنوعی


ظهور سریع ابزارهای مولد هوش مصنوعی مانند ChatGPT و Bard باعث شده است تا بسیاری از کاربران از این فناوری برای انجام آسان تکالیف نوشتاری خود استفاده کنند که این امر یکپارچگی و خلاقیت تحصیلی را تهدید می کند.


برخی از این بیم دارند که مهم نیست که چه تعداد از شخصیت‌های قدرتمند به خطرات هوش مصنوعی اشاره می‌کنند، اگر بتوان از طریق آن کسب درآمد کرد ما همچنان از آن حمایت می کنیم.

سلاح های مجهز به عنوان یکی از تهدیدهای هوش مصنوعی


همانطور که کاربرد هوش مصنوعی در صنعت های متفاوت، بسیار است اما اغلب اتفاق می افتد که، پیشرفت های تکنولوژی برای اهداف جنگی نیز مورد استفاده قرار می گیرد. در نامه‌ای سرگشاده در سال 2016، بیش از 30000 نفر، از جمله محققان هوش مصنوعی و روباتیک، از سرمایه‌گذاری در سلاح‌های مجهز به هوش مصنوعی عقب‌نشینی کردند.


در این نامه آنها نوشتند: «سوال کلیدی برای بشریت امروز این است که آیا باید یک مسابقه تسلیحاتی جهانی هوش مصنوعی را آغاز کرد یا از شروع آن جلوگیری کرد. اگر هر قدرت نظامی بزرگی با توسعه تسلیحات هوش مصنوعی پیشروی کند، یک مسابقه تسلیحاتی جهانی عملاً اجتناب ناپذیر به وجود می آید.»


بسیاری از این سلاح‌های جدید خطرات عمده‌ای را برای غیرنظامیان در زمین ایجاد می‌کنند، اما این خطر زمانی تشدید می‌شود که سلاح‌های خودمختار به دست افراد اشتباه بیفتند. از این رو اگر رقابت‌های سیاسی و تمایلات جنگ‌افروز کنترل نشود، هوش مصنوعی ممکن است با بدترین نیت‌ها به کار گرفته شود.

 

بحران های مالی ناشی از الگوریتم های هوش مصنوعی


امروزه صنعت مالی پذیرای مشارکت هوش مصنوعی در فرآیندهای مالی و معاملات روزمره شده است.


الگوریتم‌های هوش مصنوعی تحت تأثیر قضاوت یا احساسات انسان قرار نمی‌گیرند. این بدان معنا نیست که هوش مصنوعی چیزی برای ارائه به دنیای مالی ندارد. در واقع، الگوریتم های هوش مصنوعی می توانند به سرمایه گذاران کمک کنند تا تصمیمات هوشمندانه و آگاهانه تری در بازار بگیرند. اما سازمان‌های مالی باید مطمئن شوند که الگوریتم‌های هوش مصنوعی و نحوه تصمیم‌گیری آن ها را درک می‌کنند. شرکت‌ها باید قبل از معرفی این فناوری برای جلوگیری از ایجاد ترس در بین سرمایه‌گذاران و ایجاد هرج و مرج مالی، بررسی کنند که آیا هوش مصنوعی اعتماد آنها را افزایش می‌دهد یا خیر.

هوش مصنوعی، تهدیدی برای خلاقیت و روابط انسانی


هوش مصنوعی تهدیدی برای روابط و احساسات انسان ها نیز به شمار می آید برای مثال استفاده از هوش مصنوعی در مراقبت های بهداشتی می تواند منجر به کاهش همدلی و استدلال انسان شود. از سوی دیگر استفاده از آن برای تلاش‌های خلاقانه می‌تواند خلاقیت و بیان احساسی انسان را کاهش دهد.
تعامل بیش از حد با سیستم های هوش مصنوعی حتی می تواند باعث کاهش مهارت های ارتباطی و اجتماعی با افراد هم نوع خود شود. بنابراین در حالی که هوش مصنوعی می‌تواند برای خودکار کردن کارهای روزانه بسیار مفید باشد، برخی این سوال را مطرح می‌کنند که آیا ممکن است هوش، توانایی‌ها و نیاز کلی انسان به جامعه را کاهش دهد یا خیر.

 

 هوش مصنوعی خودآگاه غیرقابل کنترل


این نگرانی وجود دارد که هوش مصنوعی آنقدر سریع پیشرفت کند که هوشیار شود و فراتر از کنترل انسان عمل کند. برای مثال چندی پیش یکی از مهندسان سابق گوگل گفته بود که چت بات هوش مصنوعی LaMDA جوری به شما پاسخ می دهد که انگار دقیقاً یک شخص با شما صحبت می‌کند.

چگونه تهدیدهای هوش مصنوعی را کاهش دهیم


با وجود تمام این تهدیدات هوش مصنوعی که بیان کردیم اما همچنان دارای مزایای بی شماری است، مانند سازماندهی داده های سلامتی و ... . با این حال، برخی استدلال می کنند که برای استفاده حداکثری از این فناوری امیدوارکننده، مقررات زیادی لازم است.
این خطر جدی وجود دارد که به زودی سیستم‌های هوش مصنوعی از بشر هوشمندتر شوند. این فقط یک مشکل علمی تخیلی نیست بلکه مشکلی جدی است که احتمالاً به زودی به وجود خواهد آمد و سیاستمداران باید به فکر این باشند که اکنون در مورد آن چه کاری انجام دهند.

 

تدوین مقررات قانونی


تدوین مقررات برای هوش مصنوعی تمرکز اصلی ده ها کشور بوده است و اکنون ایالات متحده و اتحادیه اروپا در حال ایجاد اقدامات واضح تر برای مدیریت گسترش هوش مصنوعی هستند. اگرچه این بدان معناست که برخی از فناوری‌های هوش مصنوعی می‌توانند ممنوع شوند، اما این امر مانع از کاوش در این زمینه توسط جوامع نمی‌شود.

تبدیل هوش مصنوعی به بخشی از فرهنگ سازمان


نکته کلیدی این است که تصمیم بگیرید چگونه هوش مصنوعی را به شیوه ای اخلاقی به کار ببرید. گام‌های بسیاری وجود دارد که کسب‌وکارها می‌توانند هنگام ادغام هوش مصنوعی در عملیات خود بردارند. سازمان‌ها می‌توانند فرآیندهایی را برای نظارت بر الگوریتم‌ها، گردآوری داده‌های با کیفیت بالا و توضیح یافته‌های الگوریتم‌های هوش مصنوعی توسعه دهند.


رهبران حتی می توانند هوش مصنوعی را بخشی از فرهنگ شرکت خود کنند و استانداردهایی را برای تعیین فناوری های قابل قبول هوش مصنوعی ایجاد کنند.

 

عواقب ناخواسته


سیستم‌های هوش مصنوعی، به دلیل پیچیدگی و عدم نظارت انسانی، ممکن است رفتارهای غیرمنتظره ای از خود نشان دهند یا تصمیماتی با عواقب پیش‌بینی نشده اتخاذ کنند. این غیرقابل پیش‌بینی بودن می تواند منجر به نتایجی شود که تأثیر منفی بر افراد، مشاغل یا جامعه به عنوان یک کل دارد.


فرآیندهای اعتبار سنجی و نظارت قوی می تواند به توسعه دهندگان و محققان کمک کند تا این نوع مشکلات را قبل از تشدید شناسایی و رفع کنند.

 

فناوری با دیدگاه علوم انسانی


خالقان هوش مصنوعی باید به دنبال بینش، تجربیات و نگرانی های مردم در سراسر قومیت‌ها، جنسیت‌ها، فرهنگ‌ها و گروه‌های اقتصادی-اجتماعی و همچنین افرادی از حوزه‌های دیگر مانند اقتصاد، حقوق، پزشکی، فلسفه، تاریخ، جامعه‌شناسی و ارتباطات باشند.


از آنجایی که جهان شاهد رشد بی‌سابقه‌ای در فناوری‌های هوش مصنوعی (AI) است، بررسی خطرات و چالش‌های بالقوه مرتبط با آن‌ها ضروری است. از این رو ما در این مقاله تلاش کردیم تا شما را با برخی از مهمترین تهدیدها و خطرات هوش مصنوعی آشنا کنیم. به امید اینکه با مدیریت صحیح و اقدامات لازم در جهت رفع نگرانی از هوش مصنوعی بتوانیم در آینده از آن به عنوان یک ابزار خوب و نه وسیله ای برای تهدید بشر استفاده کنیم.

 

سارا پازری (کارشناس بازاریابی دیجیتال)


اشتراک گذاری

0 نظر

برای این مطلب هیچ نظری ثبت نشده است. شما اولین نظر را ثبت کنید.

پیام بگذارید

00 80 49 42 - 021

گروه بین المللی نسیم اطلس

فرآیندهای پیچیده در یک راهکار ساده