در جهان امروز، روز به روز هوش مصنوعی پیچیدهتر و گستردهتر میشود و به دنبال آن نگرانی ها در ارتباط با خطرات رشد هوش مصنوعی نیز بیشتر میشود. اگر شما هم از آن دسته افراد علاقه مند به فناوری اطلاعات هستید که معتقدند نگرانی از هوش مصنوعی امری غیرمنطقی و غیرطبیعی است زیرا چیزی جز فایده برای بشر ندارد پس بهتر است با ما همراه باشید زیرا ما در این مقاله قصد داریم تا به بیان بزرگترین تهدیدهای هوش مصنوعی برای بشر بپردازیم و آگاهی شما را در این زمینه افزایش دهیم.
جفری هینتون، که به علت اقدامات مهم خود در زمینه یادگیری ماشین به عنوان پدرخوانده هوش مصنوعی شناخته می شود، این چنین بیان می کند که: «این چیزها می توانند از ما هوشمندتر شوند و مدیریت را به دست بگیرند و اکنون باید نگران این باشیم که چگونه از وقوع آن جلوگیری کنیم». او موقعیت خود را در گوگل ترک کرد تا بتواند درباره خطرات هوش مصنوعی صحبت کند و به این نکته اشاره کرد که حتی بخشی از او از اقداماتی که در زمینه هوش مصنوعی انجام داده است، پشیمان است.
جفری هینتون تنها کسی نیست که این نگرانی را دارد. ایلان ماسک، بنیانگذار تسلا، همراه با بیش از 1000 رهبر فعال در حوزه فناوری، در نامه ای سرگشاده در سال 2023 تاکید کردند که باید آزمایش های بزرگ هوش مصنوعی متوقف شود و به این اشاره کردند که این فناوری می تواند "خطرات عمیقی برای جامعه و بشریت ایجاد کند."
سوالاتی در مورد اینکه چه کسی و برای چه اهدافی هوش مصنوعی را توسعه میدهد، درک نکات منفی بالقوه آن را ضروریتر میکند. در زیر نگاهی دقیق تر به خطرات احتمالی هوش مصنوعی می اندازیم و چگونگی مدیریت خطرات آن را بررسی می کنیم.
جامعه فناوری مدت هاست در مورد تهدیدات ناشی از هوش مصنوعی بحث کرده است. این تهدیدات عبارتند از:
درک مدلهای هوش مصنوعی و یادگیری عمیق، حتی برای کسانی که مستقیماً با این فناوری کار میکنند، دشوار است. این منجر به عدم شفافیت در مورد چگونگی و چرایی نتیجهگیری هوش مصنوعی میشود. این امر موجب می شود تا نتوان در مورد اینکه الگوریتمهای هوش مصنوعی از چه دادههایی استفاده میکنند یا اینکه چرا ممکن است تصمیمهای مغرضانه یا پر خطر بگیرند، توضیح کاملی داد.
اتوماسیون شغلی مبتنی بر هوش مصنوعی یک نگرانی مبرم است زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبت های بهداشتی پذیرفته شده است. عده ای معتقدند که تا سال 2030، سیصد میلیون شغل تمام وقت ممکن است به دلیل اتوماسیون هوش مصنوعی از بین برود.
با پیشرفت رباتهای هوش مصنوعی و افزایش هوش و مهارت آنها، نیاز به انسان ها برای انجام برخی از مشاغل کاهش میابد.
همانطور که فناوریهای هوش مصنوعی به توسعه و کارآمدتر شدن ادامه میدهند، نیروی کار باید تلاش کند با کسب مهارتهای جدید در عرصه رقابت باقی بماند. این امر به ویژه برای کارگران با مهارت پایین در نیروی کار فعلی صادق است.
هوش مصنوعی در حال حاضر تأثیر قابل توجهی بر حوزه پزشکی دارد و متخصصان حوزه هوش مصنوعی معتقدند که رشته هایی مانند حقوق و حسابداری نیز برای تصاحب هوش مصنوعی آماده شده اند. زیرا هوش مصنوعی توانایی ترکیب و ارائه جامع بهترین قرارداد ممکن را برای دستیابی به نتیجه دلخواهتان را دارد و احتمالاً جایگزین بسیاری از وکلا خواهد شد.
این ترس به واقعیت تبدیل شده است، زیرا سیاستمداران برای ترویج دیدگاههای خود به پلتفرمها متکی شدند.
رسانهها و اخبار آنلاین پر شدند از تصاویر و ویدیوهای تولید شده توسط هوش مصنوعی، تغییر صداهای هوش مصنوعی و همچنین دیپ فیک که در حوزههای سیاسی و اجتماعی نفوذ کردهاند. با استفاده از این فناوریها به راحتی می توان تصویر یک چهره با چهره دیگر در یک تصویر یا ویدیوی موجود را جایگزین کرد. در نتیجه، افراد شرور راه دیگری برای به اشتراک گذاشتن اطلاعات نادرست و تبلیغات جنگی دارند و شرایطی را ایجاد میکنند که در آن تشخیص اخبار معتبر و ناقص تقریبا غیرممکن است. هیچکس نمی داند چه چیزی واقعی است و چه چیزی نیست و این یک مسئله بزرگ خواهد بود.
این فناوری می تواند توسط جنایتکاران، دولت های سرکش، افراط گرایان اخلاقی، یا صرفاً گروه های ذینفع خاص برای تحت تاثیر قرار دادن مردم برای منافع اقتصادی یا سیاسی مورد استفاده قرار گیرد.
هوش مصنوعی بر حریم خصوصی و امنیت شبکه نیز تأثیر منفی میگذارد. نمونه بارز آن استفاده چین از فناوری تشخیص چهره در ادارات، مدارس و سایر مکانها است. با استفاده از این فناوری دولت چین ممکن است بتواند علاوه بر ردیابی حرکات یک فرد، داده های کافی برای نظارت بر فعالیت ها، روابط و دیدگاه های سیاسی یک فرد جمع آوری کند
اگر با یک چت بات هوش مصنوعی بازی کرده باشید یا یک فیلتر چهره هوش مصنوعی را به صورت آنلاین امتحان کرده باشید، داده های شما جمع آوری می شود. اما به کجا می رود و چگونه از آن استفاده می شود؟ سیستمهای هوش مصنوعی اغلب دادههای شخصی را برای سفارشیسازی تجربیات کاربر یا کمک به آموزش مدلهای هوش مصنوعی مورد استفاده شما جمعآوری میکنند (مخصوصاً اگر ابزار هوش مصنوعی رایگان باشد).
حتی ممکن است زمانی که دادهها به یک سیستم هوش مصنوعی داده میشوند به راحتی در اختیار سایر کاربران قرار بگیرند مانند باگی که در سال 2023 در ChatGPT رخ داد (به برخی از کاربران اجازه داد تاریخچه چت کاربر فعال دیگر را ببینند).
با اینکه قوانینی برای محافظت از اطلاعات شخصی در برخی کشورها وجود دارد، اما هیچ قانون صریحی وجود ندارد که از شهروندان در برابر آسیب از بین رفتن حریم خصوصی توسط هوش مصنوعی، محافظت کند.
ظهور سریع ابزارهای مولد هوش مصنوعی مانند ChatGPT و Bard باعث شده است تا بسیاری از کاربران از این فناوری برای انجام آسان تکالیف نوشتاری خود استفاده کنند که این امر یکپارچگی و خلاقیت تحصیلی را تهدید می کند.
برخی از این بیم دارند که مهم نیست که چه تعداد از شخصیتهای قدرتمند به خطرات هوش مصنوعی اشاره میکنند، اگر بتوان از طریق آن کسب درآمد کرد ما همچنان از آن حمایت می کنیم.
همانطور که کاربرد هوش مصنوعی در صنعت های متفاوت، بسیار است اما اغلب اتفاق می افتد که، پیشرفت های تکنولوژی برای اهداف جنگی نیز مورد استفاده قرار می گیرد. در نامهای سرگشاده در سال 2016، بیش از 30000 نفر، از جمله محققان هوش مصنوعی و روباتیک، از سرمایهگذاری در سلاحهای مجهز به هوش مصنوعی عقبنشینی کردند.
در این نامه آنها نوشتند: «سوال کلیدی برای بشریت امروز این است که آیا باید یک مسابقه تسلیحاتی جهانی هوش مصنوعی را آغاز کرد یا از شروع آن جلوگیری کرد. اگر هر قدرت نظامی بزرگی با توسعه تسلیحات هوش مصنوعی پیشروی کند، یک مسابقه تسلیحاتی جهانی عملاً اجتناب ناپذیر به وجود می آید.»
بسیاری از این سلاحهای جدید خطرات عمدهای را برای غیرنظامیان در زمین ایجاد میکنند، اما این خطر زمانی تشدید میشود که سلاحهای خودمختار به دست افراد اشتباه بیفتند. از این رو اگر رقابتهای سیاسی و تمایلات جنگافروز کنترل نشود، هوش مصنوعی ممکن است با بدترین نیتها به کار گرفته شود.
امروزه صنعت مالی پذیرای مشارکت هوش مصنوعی در فرآیندهای مالی و معاملات روزمره شده است.
الگوریتمهای هوش مصنوعی تحت تأثیر قضاوت یا احساسات انسان قرار نمیگیرند. این بدان معنا نیست که هوش مصنوعی چیزی برای ارائه به دنیای مالی ندارد. در واقع، الگوریتم های هوش مصنوعی می توانند به سرمایه گذاران کمک کنند تا تصمیمات هوشمندانه و آگاهانه تری در بازار بگیرند. اما سازمانهای مالی باید مطمئن شوند که الگوریتمهای هوش مصنوعی و نحوه تصمیمگیری آن ها را درک میکنند. شرکتها باید قبل از معرفی این فناوری برای جلوگیری از ایجاد ترس در بین سرمایهگذاران و ایجاد هرج و مرج مالی، بررسی کنند که آیا هوش مصنوعی اعتماد آنها را افزایش میدهد یا خیر.
هوش مصنوعی تهدیدی برای روابط و احساسات انسان ها نیز به شمار می آید برای مثال استفاده از هوش مصنوعی در مراقبت های بهداشتی می تواند منجر به کاهش همدلی و استدلال انسان شود. از سوی دیگر استفاده از آن برای تلاشهای خلاقانه میتواند خلاقیت و بیان احساسی انسان را کاهش دهد.
تعامل بیش از حد با سیستم های هوش مصنوعی حتی می تواند باعث کاهش مهارت های ارتباطی و اجتماعی با افراد هم نوع خود شود. بنابراین در حالی که هوش مصنوعی میتواند برای خودکار کردن کارهای روزانه بسیار مفید باشد، برخی این سوال را مطرح میکنند که آیا ممکن است هوش، تواناییها و نیاز کلی انسان به جامعه را کاهش دهد یا خیر.
این نگرانی وجود دارد که هوش مصنوعی آنقدر سریع پیشرفت کند که هوشیار شود و فراتر از کنترل انسان عمل کند. برای مثال چندی پیش یکی از مهندسان سابق گوگل گفته بود که چت بات هوش مصنوعی LaMDA جوری به شما پاسخ می دهد که انگار دقیقاً یک شخص با شما صحبت میکند.
با وجود تمام این تهدیدات هوش مصنوعی که بیان کردیم اما همچنان دارای مزایای بی شماری است، مانند سازماندهی داده های سلامتی و ... . با این حال، برخی استدلال می کنند که برای استفاده حداکثری از این فناوری امیدوارکننده، مقررات زیادی لازم است.
این خطر جدی وجود دارد که به زودی سیستمهای هوش مصنوعی از بشر هوشمندتر شوند. این فقط یک مشکل علمی تخیلی نیست بلکه مشکلی جدی است که احتمالاً به زودی به وجود خواهد آمد و سیاستمداران باید به فکر این باشند که اکنون در مورد آن چه کاری انجام دهند.
تدوین مقررات برای هوش مصنوعی تمرکز اصلی ده ها کشور بوده است و اکنون ایالات متحده و اتحادیه اروپا در حال ایجاد اقدامات واضح تر برای مدیریت گسترش هوش مصنوعی هستند. اگرچه این بدان معناست که برخی از فناوریهای هوش مصنوعی میتوانند ممنوع شوند، اما این امر مانع از کاوش در این زمینه توسط جوامع نمیشود.
نکته کلیدی این است که تصمیم بگیرید چگونه هوش مصنوعی را به شیوه ای اخلاقی به کار ببرید. گامهای بسیاری وجود دارد که کسبوکارها میتوانند هنگام ادغام هوش مصنوعی در عملیات خود بردارند. سازمانها میتوانند فرآیندهایی را برای نظارت بر الگوریتمها، گردآوری دادههای با کیفیت بالا و توضیح یافتههای الگوریتمهای هوش مصنوعی توسعه دهند.
رهبران حتی می توانند هوش مصنوعی را بخشی از فرهنگ شرکت خود کنند و استانداردهایی را برای تعیین فناوری های قابل قبول هوش مصنوعی ایجاد کنند.
سیستمهای هوش مصنوعی، به دلیل پیچیدگی و عدم نظارت انسانی، ممکن است رفتارهای غیرمنتظره ای از خود نشان دهند یا تصمیماتی با عواقب پیشبینی نشده اتخاذ کنند. این غیرقابل پیشبینی بودن می تواند منجر به نتایجی شود که تأثیر منفی بر افراد، مشاغل یا جامعه به عنوان یک کل دارد.
فرآیندهای اعتبار سنجی و نظارت قوی می تواند به توسعه دهندگان و محققان کمک کند تا این نوع مشکلات را قبل از تشدید شناسایی و رفع کنند.
خالقان هوش مصنوعی باید به دنبال بینش، تجربیات و نگرانی های مردم در سراسر قومیتها، جنسیتها، فرهنگها و گروههای اقتصادی-اجتماعی و همچنین افرادی از حوزههای دیگر مانند اقتصاد، حقوق، پزشکی، فلسفه، تاریخ، جامعهشناسی و ارتباطات باشند.
از آنجایی که جهان شاهد رشد بیسابقهای در فناوریهای هوش مصنوعی (AI) است، بررسی خطرات و چالشهای بالقوه مرتبط با آنها ضروری است. از این رو ما در این مقاله تلاش کردیم تا شما را با برخی از مهمترین تهدیدها و خطرات هوش مصنوعی آشنا کنیم. به امید اینکه با مدیریت صحیح و اقدامات لازم در جهت رفع نگرانی از هوش مصنوعی بتوانیم در آینده از آن به عنوان یک ابزار خوب و نه وسیله ای برای تهدید بشر استفاده کنیم.
برای این مطلب هیچ نظری ثبت نشده است. شما اولین نظر را ثبت کنید.
0 نظر