امنیت سایبری,انقلاب تکنولوژیکی,چت جی بی تی

هوشواره یا هوش مصنوعی: بخش دوم

در بخش دوم از رشته بایستگیها و خطرات هوش مصنوعی با نگاهی ژرفتر به دلایل نگرانی های دست اندرکاران هوش مصنوعی می پردازیم.

خطرات و ریسک های هوش مصنوعی:

توسعه هوش مصنوعی در آستانه یک انقلاب تکنولوژیکی است که این پتانسیل را دارد که اساساً نحوه زندگی، کار و تعامل ما را تغییر دهد. با این حال، با هر پیشرفتی در توسعه هوش مصنوعی، چالش های جدیدی در زمینه فرصت ها و خطرات این فناوری قدرتمند به وجود می آید. در حالی که مدل‌های هوش مانند “چت جی بی تی” یا سیستم‌های هوش مصنوعی پیشرفته قادر به انجام وظایف بیشتر و بیشتری به گونه مستقل هستند، از بهبود توانایی کاری گرفته تا استفاده از هوش مصنوعی در زمینه‌هایی مانند مراقبت‌های بهداشتی و پیگیری جرایم ،لاکن باید معایب احتمالی را هم در نظر گرفت.

بدون دستورالعمل‌ها و کنترل‌های اخلاقی مناسب، خطرات سیستم‌ها و الگوریتم‌های هوش مصنوعی می‌توانند پیامدهای فاجعه‌باری داشته باشند. از دروغ‌های عمیق که اطلاعات نادرست را منتشر می‌کنند تا سلاح‌های خودمختار و سیستم‌های نظارتی که حریم خصوصی و آزادی را تهدید می‌کنند، خطرات هوش مصنوعی واقعی هستند و ما به این خطرات بایستی توجه عمیقی داسته باشیم.

بسیار مهم است که چالش های مرتبط با هوش مصنوعی را بشناسیم و به آنها پاسخ دهیم تا آینده ای را تضمین کنیم که در آن از فناوری های هوش مصنوعی به نفع همه استفاده شود. توسعه و استفاده از هوش مصنوعی باید با درک عمیق مسائل اخلاقی و خطرات امنیتی همراه باشد. با تعادل مناسب بین شناسایی فرصت ها و مدیریت ریسک ها، هوش مصنوعی می تواند نیروی محرکه ای برای تغییرات مثبت باشد.

استفاده‌های احتمالی از هوش مصنوعی نیز برای شرکت‌ها اهمیت فزاینده‌ای پیدا می‌کند، زیرا آنها مزایای مختلفی را به همراه دارند. یک استراتژی هوش مصنوعی سنجیده و جامع برای تضمین مزیت رقابتی پایدار بسیار مهم است. شرکت هایی که از یک برنامه مشخص پیروی می کنند از هوش مصنوعی به طور موثرتر و موفقیت آمیزی استفاده می کنند. بنابراین برنامه ریزی و استراتژی برای موفقیت پروژه های هوش مصنوعی ضروری است.

خطرات امنیتی ناشی از هوش مصنوعی:

استفاده از هوش مصنوعی در حال حاضر بسیاری از صنایع را متحول کرده است و رایانه ها وظایفی را بر عهده می گیرند که زمانی به هوش انسانی نیاز داشتند. با این حال، این توسعه همچنین چالش هایی را به همراه دارد، به ویژه با توجه به قابلیت اطمینان مجموعه داده ها. فرآیندهای هوش مصنوعی اغلب مبهم و مبتنی بر حجم زیادی از داده ها هستند، که درک چگونگی تصمیم گیری هوش مصنوعی را دشوار می کند. به عنوان مثال، مشکل دیگر، ایجاد ویدیوها وخبرهای جعلی است که می تواند افکار عمومی را در زمان واقعی منحرف کند. این واقعیت که استفاده از هوش مصنوعی می‌تواند به چنین نمایش‌های تحریف‌شده منجر شود، بر نیاز به ادغام ملاحظات اخلاقی و اقدامات امنیتی در توسعه هوش مصنوعی به منظور طراحی مسئولانه استفاده از آن تأکید می‌کند.

ـ سیستم های هوش مصنوعی خودمختار: فرصت ها و خطرات

خطرات امنیتی: سیستم‌های هوش مصنوعی مستقل می‌توانند آسیب‌پذیری‌هایی از تهدیدات امنیت سایبری تا تهدیدات فیزیکی ایجاد کنند.

ـ استفاده از هوش مصنوعی برای انتشار اطلاعات نادرست:

 محتوا را می توان در سیاست، تجارت و جامعه برای انتشار اطلاعات نادرست و کاشت بی اعتمادی اجتماعی مورد استفاده قرار داد. ابزارهای هوش مصنوعی قادر به ایجاد مقالات و اخبار جعلی قانع کننده ای هستند که می تواند افکار عمومی را دستکاری کند و اطلاعات نادرست را منتشر کند و خطر امنیتی جدی ایجاد نماید.

دستورالعمل های اخلاقی و مکانیسم های کنترل:

توسعه دستورالعمل های اخلاقی:

 ـ برای رویارویی با آسیبهای هوش مصنوعی و خطرات از دست دادن کنترل، توسعه دستورالعمل های اخلاقی و مکانیسم های کنترل برای تنظیم استفاده از هوش مصنوعی بسیار مهم است.

ارتقاء سواد رسانه ای:

 ـ ارتقای سواد رسانه ای ضروری است تا مردم بتوانند محتوای جعلی را از محتوای معتبر تشخیص دهند و اطلاعات نادرست به حداقل برسد.

همکاری برای به حداقل رساندن خطرات:

کارشناسان در مورد خطرات بالقوه هوش مصنوعی کنترل نشده هشدار می دهند که به پیش بینی ها و برنامه ریزی های مبتنی بر داده بستگی دارد. محققان و توسعه دهندگان هوش مصنوعی باید با هم کار کنند تا اطمینان حاصل شود که سیستم های هوش مصنوعی به صورت اخلاقی و ایمن توسعه یافته اند.

 هوش مصنوعی در محل کار و در زندگی روزمره:

 استفاده از هوش مصنوعی در بخش‌های مختلف، از اتوماسیون در تولید گرفته تا چت‌بات‌های مجهز به هوش مصنوعی، مزایای زیادی را ارائه می‌دهد، اما با چالش‌هایی نیز مواجه است، به‌ویژه زمانی که صحبت از محافظت از هوش انسانی در برابر پیشی گرفتن فناوری به میان می‌آید.

بین پیشرفت و انصاف: عمل متعادل کننده هوش مصنوعی

سوگیری و تحریف: یک موضوع اخلاقی کلیدی سوگیری الگوریتم است که می‌تواند از سوگیری‌های غیرعمدی در مدل‌های هوش مصنوعی ناشی شود. این سوگیری ها اغلب نتیجه داده های آموزشی است که به طور کامل نشان دهنده تنوع دنیای واقعی نیست. این می تواند منجر به تبعیض و بی عدالتی شود، به عنوان مثال در انتخاب متقاضیان شغل یا در تقویت تبعیض در محل کار.

اتوماسیون و بازار کار:

 ترس از اینکه فناوری‌های مبتنی بر هوش مصنوعی جایگزین نیروهای انسانی شوند، منجر به نگرانی‌هایی در مورد از دست دادن شغل، تغییر ساختار شغل و ناپدید شدن برخی مشاغل می‌شود. این پرسش‌هایی را در مورد آینده کار و نقش هوش انسانی در جهانی که به‌طور فزاینده‌ای خودکار می‌شود، ایجاد می‌کند.

از دست دادن شغل به دلیل اتوماسیون هوش مصنوعی:

اتوماسیون شغلی مبتنی بر هوش مصنوعی یک نگرانی مبرم است زیرا این فناوری در صنایعی مانند بازاریابی، تولید و مراقبت های بهداشتی پذیرفته شده است. به گفته مک‌کینزی، تا سال ۲۰۳۰، وظایفی که ۳۰ درصد از ساعت‌-کارهایی که در حال حاضر در اقتصاد ایالات متحده انجام می‌شود، تشکیل می‌دهند، می‌توانند خودکار شوند، کارمندان سیاه‌پوست و اسپانیایی‌تبار به ویژه در برابر تغییرات آسیب‌پذیر هستند. گلدمن ساکس حتی بیان می کند که ۳۰۰ میلیون شغل تمام وقت ممکن است به دلیل اتوماسیون هوش مصنوعی از بین برود.

مارتین فورد، آینده‌نگر گفت: دلیل اینکه نرخ بیکاری پایینی داریم، که در واقع افرادی را که به دنبال کار نیستند جذب نمی‌کند، عمدتاً این است که مشاغل بخش خدمات با دستمزد پایین‌تر به شدت توسط این اقتصاد ایجاد شده است. با وجود این که هوش مصنوعی در حال افزایش است، من فکر نمی کنم که این روند ادامه پیدا کند.

همانطور که کریس مسینا، استراتژیست فناوری اشاره کرده است، رشته هایی مانند قانون و حسابداری برای تصاحب هوش مصنوعی آماده شده اند. مسینا گفت در واقع ممکن است برخی از آنها از بین بروند. هوش مصنوعی در حال حاضر تأثیر قابل توجهی بر پزشکی دارد. مسینا گفت که قانون و حسابداری در رتبه های بعدی قرار دارند.

او در خصوص حوزه حقوقی گفت: “به پیچیدگی قراردادها فکر کنید، و واقعاً غواصی کنید و درک کنید که برای ایجاد یک ساختار معاملاتی عالی چه چیزی لازم است. بسیاری از وکلا اطلاعات زیادی را مطالعه می کنند – صدها یا هزاران صفحه داده و اسناد. بنابراین هوش مصنوعی که این توانایی را دارد با خواندن این اسناد و مدارک بهترین قرارداد ممکن را برای نتیجه ای که می خواهید به دست آورید به طور جامع ارائه دهد، احتمالاً جایگزین بسیاری از وکلای شرکت خواهد شد”.

تضعیف اخلاق و حسن نیت:

همراه با فن‌آوران، روزنامه‌نگاران و شخصیت‌های سیاسی، حتی رهبران مذهبی نیز زنگ خطر را در مورد خطرات احتمالی هوش مصنوعی به صدا در ‌آورده اند. پاپ فرانسیس در نشست واتیکان در سال ۲۰۲۳ و در پیام خود به مناسبت روز جهانی صلح در سال ۲۰۲۴، از کشورها خواست تا یک معاهده بین المللی الزام آور ایجاد و تصویب کنند که توسعه و استفاده از هوش مصنوعی را تنظیم می کند.

پاپ فرانسیس نسبت به توانایی هوش مصنوعی برای سوء استفاده و “ایجاد اظهاراتی که در نگاه اول محتمل به نظر می‌رسد، اما بی‌اساس یا خیانت به تعصبات” هشدار داد. او تاکید کرد که چگونه این امر می‌تواند کمپین‌های اطلاعات نادرست، بی‌اعتمادی به رسانه‌های ارتباطی، مداخله در انتخابات و موارد دیگر را تقویت کند – که در نهایت خطر “تغذیه درگیری‌ها و ممانعت از صلح” را افزایش می‌دهد.

ظهور سریع ابزارهای هوش مصنوعی مولد این نگرانی ها را بیشتر می کند. بسیاری از کاربران از این فناوری برای بیرون آمدن از تکالیف نوشتاری استفاده کرده اند که یکپارچگی و خلاقیت تحصیلی را تهدید می کند. پاپ فرانسیس خاطرنشان کرد: علاوه بر این، هوش مصنوعی مغرضانه می‌تواند برای تعیین اینکه آیا یک فرد برای شغل، وام مسکن، کمک‌های اجتماعی یا پناهندگی سیاسی مناسب است یا خیر، استفاده شود که باعث بی‌عدالتی‌ها و تبعیض‌های احتمالی می‌شود.

او می گوید: ظرفیت منحصر به فرد انسانی برای قضاوت اخلاقی و تصمیم‌گیری اخلاقی بیش از مجموعه پیچیده‌ای از الگوریتم‌ها است. و این ظرفیت را نمی توان به برنامه ریزی یک ماشین کاهش داد.

شیوه های کار استثماری:

شفافیت ایجاد و آموزش مدل‌های هوش مصنوعی به ویژه با ظهور فروشگاه‌های دیجیتالی مورد تردید قرار گرفته است. این اصطلاح نشان می‌دهد که چگونه شرکت‌های فناوری اغلب آموزش هوش مصنوعی را به کارگران کشورهای دیگر برون‌سپاری می‌کنند، در حالی که حقوق کمتری به آنها می‌دهند و روش‌های استثماری دیگر را به کار می‌گیرند. این شیوه‌ها ممکن است زیر رادار پرواز کنند زیرا مسائلی مانند حریم خصوصی داده‌ها را می‌دزدند و نشان می‌دهند که دامنه هوش مصنوعی اخلاقی باید گسترش یابد.

دستورالعمل‌های اخلاقی:

نگرانی‌های اخلاقی مرتبط با توسعه و استفاده از هوش مصنوعی طیف گسترده‌ای از مسائل را پوشش می‌دهد که هم تأثیر فوری بر جامعه و هم پیامدهای بلندمدت را پوشش می‌دهد. این نگرانی‌ها بر نحوه طراحی، برنامه‌ریزی و کاربرد الگوریتم‌ها و مدل‌های هوش مصنوعی و اینکه چگونه این فناوری‌ها می‌توانند بر کار انسان، ساختارهای اجتماعی و حقوق فردی تأثیر بگذارند، متمرکز هستند.

تأثیرات اجتماعی و روانی:

  اتکای فزاینده به راه‌حل‌های مبتنی بر هوش مصنوعی در زندگی روزمره می‌تواند تأثیرات اجتماعی و روانی عمیقی داشته باشد، مانند تغییرات در روابط بین فردی، اشکال ارتباط و درک ما از هوش. این وابستگی همچنین خطر از دست دادن کنترل بر این فناوری‌ها و توانایی بالقوه آن‌ها در ایجاد آسیب، مانند اطلاعات نادرست یا ایجاد دیپ‌فیک را به همراه دارد.

مقررات و دستورالعمل های اخلاقی:

 خطرات توسعه کنترل نشده هوش مصنوعی را باید جدی گرفت و خواستار معرفی دستورالعمل های اخلاقی و مقررات سختگیرانه برای سیستم های هوش مصنوعی شد. این موضوع شامل اقداماتی برای نظارت و تطبیق سیستم‌های هوش مصنوعی برای به حداقل رساندن سوگیری‌ها، و همچنین توسعه زیرساخت‌هایی است که استفاده مسئولانه از هوش مصنوعی را ترویج می‌کند.

دانلود مقاله: