هوشواره یا هوش مصنوعی: بخش دوم
در بخش دوم از رشته بایستگیها و خطرات هوش مصنوعی با نگاهی ژرفتر به دلایل نگرانی های دست اندرکاران هوش مصنوعی می پردازیم.
خطرات و ریسک های هوش مصنوعی:
توسعه هوش مصنوعی در آستانه یک انقلاب تکنولوژیکی است که این پتانسیل را دارد که اساساً نحوه زندگی، کار و تعامل ما را تغییر دهد. با این حال، با هر پیشرفتی در توسعه هوش مصنوعی، چالش های جدیدی در زمینه فرصت ها و خطرات این فناوری قدرتمند به وجود می آید. در حالی که مدلهای هوش مانند “چت جی بی تی” یا سیستمهای هوش مصنوعی پیشرفته قادر به انجام وظایف بیشتر و بیشتری به گونه مستقل هستند، از بهبود توانایی کاری گرفته تا استفاده از هوش مصنوعی در زمینههایی مانند مراقبتهای بهداشتی و پیگیری جرایم ،لاکن باید معایب احتمالی را هم در نظر گرفت.
بدون دستورالعملها و کنترلهای اخلاقی مناسب، خطرات سیستمها و الگوریتمهای هوش مصنوعی میتوانند پیامدهای فاجعهباری داشته باشند. از دروغهای عمیق که اطلاعات نادرست را منتشر میکنند تا سلاحهای خودمختار و سیستمهای نظارتی که حریم خصوصی و آزادی را تهدید میکنند، خطرات هوش مصنوعی واقعی هستند و ما به این خطرات بایستی توجه عمیقی داسته باشیم.
بسیار مهم است که چالش های مرتبط با هوش مصنوعی را بشناسیم و به آنها پاسخ دهیم تا آینده ای را تضمین کنیم که در آن از فناوری های هوش مصنوعی به نفع همه استفاده شود. توسعه و استفاده از هوش مصنوعی باید با درک عمیق مسائل اخلاقی و خطرات امنیتی همراه باشد. با تعادل مناسب بین شناسایی فرصت ها و مدیریت ریسک ها، هوش مصنوعی می تواند نیروی محرکه ای برای تغییرات مثبت باشد.
استفادههای احتمالی از هوش مصنوعی نیز برای شرکتها اهمیت فزایندهای پیدا میکند، زیرا آنها مزایای مختلفی را به همراه دارند. یک استراتژی هوش مصنوعی سنجیده و جامع برای تضمین مزیت رقابتی پایدار بسیار مهم است. شرکت هایی که از یک برنامه مشخص پیروی می کنند از هوش مصنوعی به طور موثرتر و موفقیت آمیزی استفاده می کنند. بنابراین برنامه ریزی و استراتژی برای موفقیت پروژه های هوش مصنوعی ضروری است.
خطرات امنیتی ناشی از هوش مصنوعی:
استفاده از هوش مصنوعی در حال حاضر بسیاری از صنایع را متحول کرده است و رایانه ها وظایفی را بر عهده می گیرند که زمانی به هوش انسانی نیاز داشتند. با این حال، این توسعه همچنین چالش هایی را به همراه دارد، به ویژه با توجه به قابلیت اطمینان مجموعه داده ها. فرآیندهای هوش مصنوعی اغلب مبهم و مبتنی بر حجم زیادی از داده ها هستند، که درک چگونگی تصمیم گیری هوش مصنوعی را دشوار می کند. به عنوان مثال، مشکل دیگر، ایجاد ویدیوها وخبرهای جعلی است که می تواند افکار عمومی را در زمان واقعی منحرف کند. این واقعیت که استفاده از هوش مصنوعی میتواند به چنین نمایشهای تحریفشده منجر شود، بر نیاز به ادغام ملاحظات اخلاقی و اقدامات امنیتی در توسعه هوش مصنوعی به منظور طراحی مسئولانه استفاده از آن تأکید میکند.
ـ سیستم های هوش مصنوعی خودمختار: فرصت ها و خطرات
خطرات امنیتی: سیستمهای هوش مصنوعی مستقل میتوانند آسیبپذیریهایی از تهدیدات امنیت سایبری تا تهدیدات فیزیکی ایجاد کنند.
ـ استفاده از هوش مصنوعی برای انتشار اطلاعات نادرست:
محتوا را می توان در سیاست، تجارت و جامعه برای انتشار اطلاعات نادرست و کاشت بی اعتمادی اجتماعی مورد استفاده قرار داد. ابزارهای هوش مصنوعی قادر به ایجاد مقالات و اخبار جعلی قانع کننده ای هستند که می تواند افکار عمومی را دستکاری کند و اطلاعات نادرست را منتشر کند و خطر امنیتی جدی ایجاد نماید.
دستورالعمل های اخلاقی و مکانیسم های کنترل:
توسعه دستورالعمل های اخلاقی:
ـ برای رویارویی با آسیبهای هوش مصنوعی و خطرات از دست دادن کنترل، توسعه دستورالعمل های اخلاقی و مکانیسم های کنترل برای تنظیم استفاده از هوش مصنوعی بسیار مهم است.
ارتقاء سواد رسانه ای:
ـ ارتقای سواد رسانه ای ضروری است تا مردم بتوانند محتوای جعلی را از محتوای معتبر تشخیص دهند و اطلاعات نادرست به حداقل برسد.
همکاری برای به حداقل رساندن خطرات:
کارشناسان در مورد خطرات بالقوه هوش مصنوعی کنترل نشده هشدار می دهند که به پیش بینی ها و برنامه ریزی های مبتنی بر داده بستگی دارد. محققان و توسعه دهندگان هوش مصنوعی باید با هم کار کنند تا اطمینان حاصل شود که سیستم های هوش مصنوعی به صورت اخلاقی و ایمن توسعه یافته اند.
هوش مصنوعی در محل کار و در زندگی روزمره:
استفاده از هوش مصنوعی در بخشهای مختلف، از اتوماسیون در تولید گرفته تا چتباتهای مجهز به هوش مصنوعی، مزایای زیادی را ارائه میدهد، اما با چالشهایی نیز مواجه است، بهویژه زمانی که صحبت از محافظت از هوش انسانی در برابر پیشی گرفتن فناوری به میان میآید.
بین پیشرفت و انصاف: عمل متعادل کننده هوش مصنوعی
سوگیری و تحریف: یک موضوع اخلاقی کلیدی سوگیری الگوریتم است که میتواند از سوگیریهای غیرعمدی در مدلهای هوش مصنوعی ناشی شود. این سوگیری ها اغلب نتیجه داده های آموزشی است که به طور کامل نشان دهنده تنوع دنیای واقعی نیست. این می تواند منجر به تبعیض و بی عدالتی شود، به عنوان مثال در انتخاب متقاضیان شغل یا در تقویت تبعیض در محل کار.
اتوماسیون و بازار کار:
ترس از اینکه فناوریهای مبتنی بر هوش مصنوعی جایگزین نیروهای انسانی شوند، منجر به نگرانیهایی در مورد از دست دادن شغل، تغییر ساختار شغل و ناپدید شدن برخی مشاغل میشود. این پرسشهایی را در مورد آینده کار و نقش هوش انسانی در جهانی که بهطور فزایندهای خودکار میشود، ایجاد میکند.
از دست دادن شغل به دلیل اتوماسیون هوش مصنوعی:
اتوماسیون شغلی مبتنی بر هوش مصنوعی یک نگرانی مبرم است زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبت های بهداشتی پذیرفته شده است. به گفته مککینزی، تا سال ۲۰۳۰، وظایفی که ۳۰ درصد از ساعت-کارهایی که در حال حاضر در اقتصاد ایالات متحده انجام میشود، تشکیل میدهند، میتوانند خودکار شوند، کارمندان سیاهپوست و اسپانیاییتبار به ویژه در برابر تغییرات آسیبپذیر هستند. گلدمن ساکس حتی بیان می کند که ۳۰۰ میلیون شغل تمام وقت ممکن است به دلیل اتوماسیون هوش مصنوعی از بین برود.
مارتین فورد، آیندهنگر گفت: دلیل اینکه نرخ بیکاری پایینی داریم، که در واقع افرادی را که به دنبال کار نیستند جذب نمیکند، عمدتاً این است که مشاغل بخش خدمات با دستمزد پایینتر به شدت توسط این اقتصاد ایجاد شده است. با وجود این که هوش مصنوعی در حال افزایش است، من فکر نمی کنم که این روند ادامه پیدا کند.
همانطور که کریس مسینا، استراتژیست فناوری اشاره کرده است، رشته هایی مانند قانون و حسابداری برای تصاحب هوش مصنوعی آماده شده اند. مسینا گفت در واقع ممکن است برخی از آنها از بین بروند. هوش مصنوعی در حال حاضر تأثیر قابل توجهی بر پزشکی دارد. مسینا گفت که قانون و حسابداری در رتبه های بعدی قرار دارند.
او در خصوص حوزه حقوقی گفت: “به پیچیدگی قراردادها فکر کنید، و واقعاً غواصی کنید و درک کنید که برای ایجاد یک ساختار معاملاتی عالی چه چیزی لازم است. بسیاری از وکلا اطلاعات زیادی را مطالعه می کنند – صدها یا هزاران صفحه داده و اسناد. بنابراین هوش مصنوعی که این توانایی را دارد با خواندن این اسناد و مدارک بهترین قرارداد ممکن را برای نتیجه ای که می خواهید به دست آورید به طور جامع ارائه دهد، احتمالاً جایگزین بسیاری از وکلای شرکت خواهد شد”.
تضعیف اخلاق و حسن نیت:
همراه با فنآوران، روزنامهنگاران و شخصیتهای سیاسی، حتی رهبران مذهبی نیز زنگ خطر را در مورد خطرات احتمالی هوش مصنوعی به صدا در آورده اند. پاپ فرانسیس در نشست واتیکان در سال ۲۰۲۳ و در پیام خود به مناسبت روز جهانی صلح در سال ۲۰۲۴، از کشورها خواست تا یک معاهده بین المللی الزام آور ایجاد و تصویب کنند که توسعه و استفاده از هوش مصنوعی را تنظیم می کند.
پاپ فرانسیس نسبت به توانایی هوش مصنوعی برای سوء استفاده و “ایجاد اظهاراتی که در نگاه اول محتمل به نظر میرسد، اما بیاساس یا خیانت به تعصبات” هشدار داد. او تاکید کرد که چگونه این امر میتواند کمپینهای اطلاعات نادرست، بیاعتمادی به رسانههای ارتباطی، مداخله در انتخابات و موارد دیگر را تقویت کند – که در نهایت خطر “تغذیه درگیریها و ممانعت از صلح” را افزایش میدهد.
ظهور سریع ابزارهای هوش مصنوعی مولد این نگرانی ها را بیشتر می کند. بسیاری از کاربران از این فناوری برای بیرون آمدن از تکالیف نوشتاری استفاده کرده اند که یکپارچگی و خلاقیت تحصیلی را تهدید می کند. پاپ فرانسیس خاطرنشان کرد: علاوه بر این، هوش مصنوعی مغرضانه میتواند برای تعیین اینکه آیا یک فرد برای شغل، وام مسکن، کمکهای اجتماعی یا پناهندگی سیاسی مناسب است یا خیر، استفاده شود که باعث بیعدالتیها و تبعیضهای احتمالی میشود.
او می گوید: ظرفیت منحصر به فرد انسانی برای قضاوت اخلاقی و تصمیمگیری اخلاقی بیش از مجموعه پیچیدهای از الگوریتمها است. و این ظرفیت را نمی توان به برنامه ریزی یک ماشین کاهش داد.
شیوه های کار استثماری:
شفافیت ایجاد و آموزش مدلهای هوش مصنوعی به ویژه با ظهور فروشگاههای دیجیتالی مورد تردید قرار گرفته است. این اصطلاح نشان میدهد که چگونه شرکتهای فناوری اغلب آموزش هوش مصنوعی را به کارگران کشورهای دیگر برونسپاری میکنند، در حالی که حقوق کمتری به آنها میدهند و روشهای استثماری دیگر را به کار میگیرند. این شیوهها ممکن است زیر رادار پرواز کنند زیرا مسائلی مانند حریم خصوصی دادهها را میدزدند و نشان میدهند که دامنه هوش مصنوعی اخلاقی باید گسترش یابد.
دستورالعملهای اخلاقی:
نگرانیهای اخلاقی مرتبط با توسعه و استفاده از هوش مصنوعی طیف گستردهای از مسائل را پوشش میدهد که هم تأثیر فوری بر جامعه و هم پیامدهای بلندمدت را پوشش میدهد. این نگرانیها بر نحوه طراحی، برنامهریزی و کاربرد الگوریتمها و مدلهای هوش مصنوعی و اینکه چگونه این فناوریها میتوانند بر کار انسان، ساختارهای اجتماعی و حقوق فردی تأثیر بگذارند، متمرکز هستند.
تأثیرات اجتماعی و روانی:
اتکای فزاینده به راهحلهای مبتنی بر هوش مصنوعی در زندگی روزمره میتواند تأثیرات اجتماعی و روانی عمیقی داشته باشد، مانند تغییرات در روابط بین فردی، اشکال ارتباط و درک ما از هوش. این وابستگی همچنین خطر از دست دادن کنترل بر این فناوریها و توانایی بالقوه آنها در ایجاد آسیب، مانند اطلاعات نادرست یا ایجاد دیپفیک را به همراه دارد.
مقررات و دستورالعمل های اخلاقی:
خطرات توسعه کنترل نشده هوش مصنوعی را باید جدی گرفت و خواستار معرفی دستورالعمل های اخلاقی و مقررات سختگیرانه برای سیستم های هوش مصنوعی شد. این موضوع شامل اقداماتی برای نظارت و تطبیق سیستمهای هوش مصنوعی برای به حداقل رساندن سوگیریها، و همچنین توسعه زیرساختهایی است که استفاده مسئولانه از هوش مصنوعی را ترویج میکند.