هوش مصنوعی بخش سوم
در بخش سوم از رشته یادداشتها درباره محسنات و خطرات هوش مصنوعی به خطرات احتمالی هوش مصنوعی پرداخته می شود.
فرصت ها و تهدید ها:
با وجود این نگرانیها، مدلها و فناوریهای هوش مصنوعی نیز فرصتهای مهمی را ارائه میدهند، برای نمونه بهبود کارآیی و اثربخشی در زمینه هایی مانند مراقبت های بهداشتی، اجرای قانون و بسیاری موارد دیگر. چالش این است که این فناوریها را به گونهای طراحی و تنظیم کنیم که مزایا را به حداکثر برسانند و معایب را به حداقل. بحث در مورد هوش مصنوعی فقط در مورد پیشرفت های تکنولوژیکی نیست، بلکه در مورد مسائل اخلاقی، اجتماعی و سیاسی عمیق است. توسعه بیشتر و ادغام هوش مصنوعی در جامعه نیازمند رویکردی متعادل است که هم پتانسیل عظیم و هم خطرات را در نظر می گیرد.
بسیار مهم است که چالش های مرتبط با هوش مصنوعی را بشناسیم و به آنها پاسخ دهیم تا آینده ای را تضمین کنیم که در آن از فناوری های هوش مصنوعی به سود همه استفاده شود. توسعه و بهره برداری از هوش مصنوعی باید با درک عمیق مسائل اخلاقی، خطرات امنیتی و احتمال به نابودی بشر هدایت شود. با تعادل مناسب بین شناسایی فرصت ها و مدیریت ریسک ها، هوش مصنوعی می تواند نیروی محرکه ای برای دگرگونیهای مثبت باشد.
کاربردهای احتمالی از هوشواره نیز برای شرکتها اهمیت فزایندهای پیدا میکند، زیرا آنها مزایای مختلفی را به همراه دارند. یک استراتژی هوش مصنوعی سنجیده و جامع برای تضمین مزیت رقابتی پایدار بسیار مهم است. شرکت هایی که از یک برنامه مشخص پیروی می کنند از هوش مصنوعی به طور موثرتر و موفقیت آمیزی استفاده می کنند. بنابراین برنامه ریزی و استراتژی برای موفقیت پروژه های هوش مصنوعی ضروری است.
مواردی از معایب هوش مصنوعی:
آیا هوش مصنوعی خطرناک است؟
جامعه فناوری مدت هاست در مورد تهدیدات ناشی از هوش مصنوعی بحث کرده است. اتوماسیون مشاغل، انتشار اخبار جعلی و مسابقه تسلیحاتی خطرناک. تسلیحات مجهز به هوش مصنوعی به عنوان برخی از بزرگترین خطرات ناشی از هوش مصنوعی ذکر شده است.
همانطور که هوش مصنوعی پیچیده تر و گسترده تر می شود، صداهای هشدار نسبت به خطرات بالقوه هوش مصنوعی بلندتر می شوند.
جفری هینتون، معروف به پدرخوانده هوش مصنوعی برای کار اساسی خود در زمینه شبکه عصبی و یادگیری ماشینی، گفت: “این چیزها میتوانند هوشمندتر از ما باشند و میتوانند تصمیم بگیرند که کنترل را در دست بگیرند، و اکنون باید نگران این باشیم که چگونه از این اتفاق جلوگیری کنیم” . او شرکت گوگل را ترک کرد تا بتواند درباره خطرات هوش مصنوعی صحبت کند. او حتی گفته که از کار خودش پشیمان است
این دانشمند مشهور کامپیوتر در نگرانی های خود تنها نیست. ایلان ماسک، بنیانگذار تسلا و اسپیس ایکس، به همراه بیش از ۱۰۰۰ رهبر فناوری دیگر، در نامه ای سرگشاده در سال ۲۰۲۳ خواستار توقف آزمایش های بزرگ هوش مصنوعی شدند و اشاره کردند که این فناوری می تواند “خطرات عمیقی” برای جامعه و بشریت ایجاد کند.
خواه این اتوماسیون فزاینده مشاغل خاص باشد، الگوریتمهای مغرضانه جنسیتی و نژادی یا سلاح های مستقلی که بدون نظارت انسان عمل میکنند، نگرانی در شماری از جبهه ها وجود دارد، و ما هنوز در مراحل اولیه توانایی هوش مصنوعی هستیم.
اما هوش مصنوعی کامل نیست. دلایل این کمبودها چه می توانند باشند؟:
۱- هوش مصنوعی همدل نیست
همدلی توانایی درک و به اشتراک گذاشتن احساسات با دیگران است. این قابلیتی ست که انسان ها دارند و روبات ها ندارند.
۲- هوش مصنوعی می تواند افراد و فناوری را دستکاری کند
دستکاری وسایل نقلیه خودران یک نگرانی عمده همگانی ست. به این دلیل که فناوریهای مجهز به هوش مصنوعی کامل نیستند و میتوان آنها را دستکاری کرد.
دو نوع دستکاری ممکن است اتفاق بیفتد: اولین نوع دستکاری زمانی است که فناوری مجهز به هوش مصنوعی توسط انسان دستکاری شده و منجر به آسیب ناخواسته به انسان شود. نوع دوم دستکاری زمانی اتفاق میافتد که فناوری مجهز به هوش مصنوعی، سایر فناوریها یا عوامل مجهز به هوش مصنوعی را دستکاری میکند و در نتیجه آسیب ناخواسته به افراد وارد میشود.
۳- فناوریهای مجهز به هوش مصنوعی نمیتوانند زمینه را درک کنند یا در موقعیتهای غیرعادی قضاوت کنند.
الگوریتمهایی که از فناوریهای مبتنی بر هوش مصنوعی برای تصمیمگیری استفاده میکنند، اغلب مغرضانه هستند. این به این دلیل است که دادههایی که این الگوریتمها از آنها یاد میگیرند ممکن است به هر طریقی مغرضانه باشد. به عنوان مثال، یک الگوریتم می تواند بر روی مجموعه داده ای از رزومه آموزش داده شود و بعداً متوجه شود که نسبت به متقاضیان مرد با حقوق بالاتر تعصب یا حساسیت دارد.
نوع دیگری از سوگیری الگوریتمی زمانی رخ میدهد که دادهها به روشی جانبدارانه جمعآوری شوند. به عنوان مثال، وقتی یک الگوریتم چیزی در مورد موضوعات خاص می آموزد، وقتی فقط مقالات خبری از یک طرف طیف سیاسی را می خواند، او تمایل به این سمت از طیف سیاسی خواهد داشت.
۴- عدم شفافیت و پاسخگویی در تصمیم گیری از طریق هوش مصنوعی وجود دارد
فقدان شفافیت و پاسخگویی در تصمیم گیری های هوش مصنوعی مشکلی بنیادی ست. به این دلیل که این سیستم ها اغلب غیرشفاف هستند و درک نحوه تصمیم گیری و منطق آنها را دشوار می کند. اینْ خود می تواند منجر به سوگیری، بی انصافی یا سایر پیامدهای ناخواسته شود.
درک مدلهای هوش مصنوعی و یادگیری عمیق، حتی برای کسانی که مستقیماً با این فناوری کار میکنند، دشوار است. این منجر به عدم شفافیت در مورد چگونگی و چرایی نتیجهگیری هوش مصنوعی میشود و توضیحی در مورد اینکه الگوریتمهای هوش مصنوعی از چه دادههایی استفاده میکنند یا اینکه چرا ممکن است تصمیمهای مغرضانه یا ناایمن بگیرند، ایجاد نمیکند. این نگرانیها منجر به استفاده از هوش مصنوعی قابل توضیح شده است، اما هنوز راه زیادی تا تبدیل شدن سیستمهای هوش مصنوعی شفاف به روش معمول وجود دارد.
هوش مصنوعی قابل توضیح:
هوش مصنوعی قابل توضیح مجموعهای از تکنیکها، اصول و فرآیندهایی است که برای کمک به سازندگان و کاربران مدلهای هوش مصنوعی استفاده میشود تا بفهمند این مدلها چگونه تصمیم میگیرند. این اطلاعات می تواند برای بهبود دقت مدل یا شناسایی و رسیدگی به رفتارهای ناخواسته مانند تصمیم گیری مغرضانه استفاده شود.
هوش مصنوعی قابل توضیح را می توان برای توصیف یک مدل هوش مصنوعی، تأثیر مورد انتظار آن و هرگونه سوگیری احتمالی، و همچنین ارزیابی دقت و انصاف آن استفاده کرد. با پیشرفت بیشتر هوش مصنوعی، بسیاری هوش مصنوعی قابل توضیح را برای آینده صنعت ضروری می دانند.
یادگیری عمیق:
آیا تا به حال فکر کرده اید که چگونه گوگل می تواند کل پاراگراف ها را از یک زبان به زبان دیگر در چند میلی ثانیه ترجمه کند. چگونه نتفلیکس و یوتیوب می توانند توصیه های خوبی ارائه دهند؟ حتی ماشین های خودران چگونه ممکن است؟
همه این نوآوری ها محصول یادگیری عمیق و شبکه های عصبی مصنوعی هستند.
شبکه عصبی چیست؟
شبکه عصبی مجموعهای از الگوریتمها است که تلاش میکند تا روابط زیربنایی را در مجموعهای از دادهها از طریق فرآیندی که نحوه عملکرد مغز انسان را تقلید میکند، تشخیص دهد. از این نظر، شبکههای عصبی به سیستمهایی از نورونها، اعم از ارگانیک یا مصنوعی اشاره دارند. شبکه های عصبی می توانند با یک ورودی در حال تغییر سازگار شوند، بنابراین شبکه بهترین نتیجه ممکن را بدون نیاز به طراحی مجدد معیارهای خروجی ایجاد می کند.
۵- مسائل اخلاقی در ساختن یک اَبَرهوش
مسئله مشکلات اخلاقی با هوش مصنوعی مسئله بسیار مهمی است. امکان تولید سلاح های خودمختار نمونه بسیار خوبی از این واقعیت است. اگر هیچ قانون یا مقرراتی برای جلوگیری از توسعه این سلاح ها وجود نداشته باشد چه؟ این امکان وجود دارد که ارتش بدون نگرانی و توجه به آسیب های جانبی از آنها برای کشتن دشمن استفاده کند.
۶- هوش مصنوعی تأثیر منفی بر مشاغل و رشد اقتصادی مردم دارد
استفاده از هوش مصنوعی در محیط کار رشد تصاعدی را تجربه کرده است. تخمین زده می شود که تا سال ۲۰۲۵ هوش مصنوعی یک سوم مشاغل را به خود اختصاص دهد. جای تعجب نیست که مردم از اینکه این به چه معناست برای آینده خود و توانایی آنها برای امرار معاش می ترسند. این ترس موجه است زیرا بسیاری از صنایع در حال حاضر شاهد تأثیر اتوماسیون بر مشاغل و رشد اقتصادی هستند، کشاورزی و تولید دو بخش هستند که به شدت توسط فناوریهای مبتنی بر هوش مصنوعی مختل شدهاند.
۷- هوش مصنوعی خطرات امنیتی دارد
هوش مصنوعی یک فناوری نوظهور است که توانسته مشکلاتی را که قبلا غیرقابل حل بودند حل کند. به توسعه محصولات، خدمات و فرآیندهای جدید کمک کرده است. همانطور که هوش مصنوعی پیشرفته تر می شود، می تواند راه حل هایی برای بسیاری از مشکلات در آینده ارائه دهد. با این حال، هوش مصنوعی بدون خطر نیست.
آلگوریتم های پشتیبانی شده از هوش مصنوعی در برابر حملات هکرها آسیب پذیر هستند. این بدان معنی است که هکرها می توانند پروفایل های جعلی رسانه های اجتماعی یا برنامه های چت را برای سرقت اطلاعات از کاربران ناآگاه ایجاد کنند. اگر یک هکر موفق به سرقت اطلاعات شخصی شما شود، می تواند از آن در راه هایی استفاده کند که به شما آسیب برساند، مانند سرقت هویت یا کلاهبرداری از کارت اعتباری.
ـ۱-۷ نگرانی های مربوط به حریم خصوصی و امنیتی:
برنامه های کاربردی هوش مصنوعی اغلب نیاز به دسترسی به مقادیر زیادی از داده ها دارند، که می تواند منجر به دسترسی به مسائل مربوط به حریم خصوصی یا سوء استفاده از داده ها شود و حریم خصوصی کاربر را به خطر بیندازد. خطر افشاء یا هک شدن اطلاعات حساس وجود دارد – مانند داده های بهداشتی مورد استفاده در زمینه پزشکی یا ابزارهای پوشیدنی، یا داده های شخصی که توسط چت بات ها و موتورهای جستجوی هوش مصنوعی قابل دسترسی هستند.
اگر با یک چت ربات هوش مصنوعی بازی کرده باشید یا یک فیلتر چهره هوش مصنوعی را به صورت آنلاین امتحان کرده باشید، داده های شما جمع آوری می شود – اما این داده ها به کجا می رود و چگونه از آن استفاده می شود؟ سیستمهای هوش مصنوعی اغلب دادههای شخصی را برای سفارشیسازی تجربیات کاربر یا کمک به آموزش مدلهای هوش مصنوعی که استفاده میکنید جمعآوری میکنند (مخصوصاً اگر ابزار هوش مصنوعی رایگان باشد). حتی ممکن است زمانی که دادهها به یک سیستم هوش مصنوعی داده میشوند از سایر کاربران امن تلقی نشوند، زیرا یک حادثه باگ در ” چت جی پی تی “در سال ۲۰۲۳ رخ داد که به برخی از کاربران اجازه داد که عناوین تاریخچه چت کاربران فعال دیگر را ببینند. در حالی که قوانینی برای محافظت از اطلاعات شخصی در برخی موارد در ایالات متحده وجود دارد، هیچ قانون فدرال صریحی وجود ندارد که از شهروندان در برابر آسیب های حریم خصوصی داده ها که توسط هوش مصنوعی متحمل می شوند محافظت کند.
۸- فقدان دستورالعمل های اخلاقی برای اطمینان از ایمن بودن استفاده از این سیستم ها وجود دارد
فقدان دستورالعمل های اخلاقی برای اطمینان از اینکه این سیستم ها می توانند به طور ایمن استفاده شوند، یک مشکل بزرگ است. برخی از محققان استدلال می کنند که امکان ندارد نویسندگان هوش مصنوعی کاملاً عاری از سوگیری باشند، که یک مشکل جدی است زیرا نویسندگان هوش مصنوعی اغلب در زمینه های حساس مانند مراقبت های بهداشتی، پیگیری جرایم و آموزش استفاده می شوند.
۹ـ بحران های مالی ناشی از الگوریتم های هوش مصنوعی
صنعت مالی پذیرای مشارکت فناوری هوش مصنوعی در فرآیندهای مالی و معاملات روزمره شده است. در نتیجه، معاملات الگوریتمی می توانند مسئول بحران مالی بعدی ما در بازارها باشد.
در حالی که الگوریتمهای هوش مصنوعی تحت تأثیر قضاوت یا احساسات انسان قرار نمیگیرند، اما زمینهها، به هم پیوستگی بازارها و عواملی مانند اعتماد و ترس انسان را نیز در نظر نمیگیرند. سپس این الگوریتمها هزاران معامله را با سرعتی بسیار زیاد انجام میدهند و هدفشان این است که چند ثانیه بعد به سودهای کوچک بفروشند. فروختن هزاران معامله می تواند سرمایه گذاران را از انجام همین کار بترساند و منجر به سقوط ناگهانی و نوسان شدید بازار شود.
مواردی مانند سقوط فلش در سال ۲۰۱۰ و فلش نایت کاپیتال به عنوان یادآوری از نوسانات بازار ارز سخن می گوید. این بدان معنا نیست که هوش مصنوعی چیزی برای ارائه به دنیای مالی ندارد. در واقع، الگوریتمهای هوش مصنوعی میتوانند به سرمایهگذاران کمک کنند تا تصمیمات هوشمندانهتر و آگاهانهتری در بازار بگیرند. اما سازمان های مالی باید مطمئن شوند که الگوریتم های هوش مصنوعی و نحوه تصمیم گیری آن الگوریتم ها را درک می کنند. شرکتها باید قبل از معرفی این فناوری برای جلوگیری از ایجاد ترس در بین سرمایهگذاران و ایجاد هرج و مرج مالی، در نظر بگیرند که آیا هوش مصنوعی اعتماد آنها را بالا میبرد یا کاهش میدهد.
۱۰ـ از دست دادن نفوذ انسانی
اتکای بیش از حد به فناوری هوش مصنوعی میتواند منجر به از بین رفتن نفوذ انسانی – و فقدان عملکرد انسانی – در برخی از بخشهای جامعه شود. به عنوان مثال، استفاده از هوش مصنوعی در مراقبت های بهداشتی می تواند منجر به کاهش همدلی و استدلال انسان شود. و استفاده از هوش مصنوعی مولد برای تلاشهای خلاقانه میتواند خلاقیت و بیان احساسی انسان را کاهش دهد. تعامل بیش از حد با سیستم های هوش مصنوعی حتی می تواند باعث کاهش مهارت های ارتباطی و اجتماعی با همتایان شود. بنابراین در حالی که هوش مصنوعی میتواند برای خودکار کردن کارهای روزانه بسیار مفید باشد، برخی این سوال را مطرح میکنند که آیا ممکن است هوش، تواناییها و نیاز کلی انسان به جامعه را کاهش دهد یا نه.
۱۱_ جنگ افزارهای خودمختار که هوش مصنوعی طراحی کرده است:
همانطور که اغلب اتفاق می افتد، پیشرفت های فناوری برای اهداف جنگی به کار گرفته شده اند. هنگامی که سخن از هوش مصنوعی به میان میآید، برخی تمایل دارند تا پیش از اینکه خیلی دیر شود کاری در مورد آن انجام دهند: در نامهای سرگشاده در سال ۲۰۱۶، بیش از ۳۰,۰۰۰ نفر، از جمله محققان هوش مصنوعی و روباتیک، از سرمایهگذاری در سلاحهای خودران با سوخت هوش مصنوعی عقبنشینی کردند.
ایشان نوشتند: “پرسش کلیدی برای بشریت امروز این است که آیا باید یک مسابقه تسلیحاتی جهانی هوش مصنوعی را آغاز کرد یا از شروع آن جلوگیری کرد. اگر هر قدرت نظامی بزرگی با توسعه تسلیحات هوش مصنوعی پیشروی کند، یک مسابقه تسلیحاتی جهانی عملاً اجتناب ناپذیر است و نقطه پایانی این خط سیر فناوری آشکار است: سلاحهای خودمختار به کلاشینکفهای فردا تبدیل خواهند شد”.
این پیشبینی در قالب سیستمهای تسلیحاتی خودمختار مرگبار محقق شد که با رعایت مقررات کمی اهداف را بهتنهایی شناسایی و نابود میکنند. به دلیل گسترش سلاحهای قوی و پیچیده، برخی از قدرتمندترین کشورهای جهان تسلیم نگرانیها شدهاند و به جنگ سرد فناوری کمک کردهاند.
بسیاری از این سلاحهای جدید خطرات عمدهای را برای غیرنظامیان در زمین ایجاد میکنند، اما این خطر زمانی تشدید میشود که سلاحهای خودمختار به دست افراد اشتباه بیفتند. هکرها بر انواع مختلفی از حملات سایبری تسلط یافته اند، بنابراین تصور اینکه یک بازیگر مخرب به سلاح های خود مختار نفوذ کند و آخر زمان را تحریک کند، سخت نیست.
۱۲ـ هوش مصنوعی خودآگاه غیرقابل کنترل:
همچنین این نگرانی وجود دارد که هوش مصنوعی آنقدر سریع در هوش پیشرفت کند که هوشیار شود و فراتر از کنترل انسان عمل کند – احتمالاً به روشی مخرب. گزارشهای ادعایی از این هوشیاری قبلاً رخ داده است، با یکی از گزارش های معروف از سوی یکی از مهندسان سابق گوگل که در یک چت بات هوش مصنوعی بیان شده، این چنان با احساس بود انگار که یک شخص با او صحبت می کرد. از آنجایی که نقاط عطف بزرگ بعدی هوش مصنوعی شامل ساخت سیستمهایی با هوش عمومی مصنوعی و در نهایت هوش مصنوعی است، بحران ها برای متوقف کردن کامل این تحولات همچنان در حال افزایش است.
خطرات دیگر هوش مصنوعی:
ـ عدم شفافیت و کنترل:
بسیاری از مدلهای هوش مصنوعی آنقدر پیچیده هستند که درک یا کنترل نحوه عملکرد آنها کمابیش ناممکن است. این نکته می تواند رفتار آنها را پیش بینی ناپذیر و درک تصمیمات آنها را دشوار کند.
ـ تعصبات و تبعیض ناشی از هوش مصنوعی:
بسته به اینکه یک هوش مصنوعی با چه مقدار و چه داده هایی یاد می گیرد، خوب یا کمتر خوب کار می کند و همچنین می تواند اثرات تبعیض آمیز داشته باشد. به عنوان مثال، اگر با داده هایی که شامل تفاوت در برخورد رفتار یا رفتار تبعیض آمیز است، آموزش داده شود، نتایج و تصمیمات آن منعکس کننده همان کلیشه ها و تبعیض خواهد بود.
ـ امتناع از پذیرش سوگیری:
اگر شرکتها از پذیرش سوگیریهای ذاتی موجود در الگوریتمهای هوش مصنوعی امتناع کنند، ممکن است ابتکارات خود را از طریق استخدام مبتنی بر هوش مصنوعی به خطر بیاندازند. این ایده که هوش مصنوعی میتواند ویژگیهای یک نامزد را از طریق تجزیه و تحلیلهای چهره و صدا اندازهگیری کند، همچنان با تعصبات نژادی آلوده است و همان شیوههای استخدام تبعیضآمیز را بازتولید میکند که مشاغل ادعا میکنند حذف میکنند.
ـ گسترش نابرابری اجتماعی-اقتصادی:
گسترش نابرابری اجتماعی-اقتصادی ناشی از از دست دادن شغل به دلیل استفاده از هوش مصنوعی یکی دیگر از دلایل نگرانی است که سوگیری های طبقاتی را آشکار می کند. کارگرانی که کارهای دستی و تکراری بیشتری انجام می دهند، به دلیل اتوماسیون، دستمزدشان تا ۷۰ درصد کاهش پیدا کرده است، در حالی که کارکنان اداری در مراحل اولیه هوش مصنوعی تا حد زیادی دست نخورده باقی می مانند. با این حال، افزایش استفاده از هوش مصنوعی مولد در حال حاضر مشاغل اداری را تحت تاثیر قرار داده است و طیف وسیعی از نقشها را به وجود میآورد که ممکن است نسبت به سایرین در برابر دستمزد یا از دست دادن شغل آسیبپذیرتر باشند.
ادعاهای فراگیر مبنی بر اینکه هوش مصنوعی به نوعی بر مرزهای اجتماعی غلبه کرده یا مشاغل بیشتری ایجاد کرده است، نمی تواند تصویر کاملی از اثرات آن را ارائه دهد. در نظر گرفتن تفاوت ها بر اساس نژاد، طبقه و سایر دسته ها بسیار مهم است. در غیر این صورت، تشخیص اینکه هوش مصنوعی و اتوماسیون چگونه به ضرر افراد و گروههای خاص به نفع دیگران است، دشوارتر میشود.
اشکال مختلف سوگیری هوش مصنوعی نیز زیانبار هستند. اولگا روساکوفسکی، استاد علوم کامپیوتر پرینستون، در گفتگو با نیویورک تایمز گفت که تعصب هوش مصنوعی فراتر از جنسیت و نژاد است. علاوه بر داده ها و سوگیری الگوریتمی (که دومی می تواند اولی را تقویت کند)، هوش مصنوعی توسط انسان ها توسعه یافته است – و انسان ها ذاتاً سوگیری دارند.
روساکوفسکی گفت: محققان عمدتاً مردانی هستند که از جمعیتهای نژادی خاص میآیند، در مناطق اجتماعی-اقتصادی بالا بزرگ شدهاند، در درجه اول افراد بدون معلولیت. ما جمعیت نسبتاً همگنی هستیم، بنابراین فکر کردن به طور گسترده در مورد مسائل جهانی یک چالش است.
تجارب محدود سازندگان هوش مصنوعی ممکن است توضیح دهد که چرا هوش مصنوعی تشخیص گفتار اغلب لهجهها و لهجههای خاص را درک نمیکند، یا چرا شرکتها عواقب جعل چهرههای بدنام تاریخ بشریت در یک ربات چت را در نظر نمیگیرند. توسعهدهندگان و کسبوکارها باید دقت بیشتری به خرج دهند تا از بازآفرینی سوگیریها و پیشداوریهای قدرتمندی که جمعیت اقلیتها را در معرض خطر قرار میدهد، اجتناب کنند.
ـ مشکلات کیفیت و حساسیت به خطاها:
سیستم های هوش مصنوعی بدون خطا نیستند و می توانند نتایج نادرست یا گمراه کننده ای ارائه دهند، به خصوص اگر با داده های آموزشی ناکافی یا تحریف شده کار کنند یا برنامه ریزی شده اند تا در هر موردی پاسخی بدهند – حتی اگر داده ها این اجازه را ندهند و بنابراین باید پاسخ ها را ابداع کرد. بنابراین اطلاعات رباتهای چت یا موتورهای جستجوی هوش مصنوعی باید همیشه با چندین منبع مقایسه شوند.
ـ واقعیت تحریف شده و حبابهای فیلتر:
در رسانههای اجتماعی، الگوریتمهای مبتنی بر هوش مصنوعی تضمین میکنند که فقط محتوای ظاهرآ مرتبط به ما نشان داده میشود. این خود می تواند منجر به ایجاد حباب های فیلتر شود که درک یک طرفه را ترویج می کند. ابزارهای هوش مصنوعی مانند فیلترهای زیبایی که تصاویر غیرواقعی بدن را تقویت میکنند و در نتیجه بر زنان و جوانان بهویژه فشار وارد میکنند، میتوانند به تحریف واقعیت کمک کنند.
ـ سوء استفاده و دستکاری:
برنامه های کاربردی هوش مصنوعی همچنین می توانند برای اهداف سوء استفاده یا دستکاری استفاده شوند، به عنوان مثال. ایجاد دیپ فیک، انتشار اطلاعات نادرست یا نظارت و کنترل کاربران خود. اگر از هوش مصنوعی برای تبلیغات سیاسی یا دستکاری اجتماعی استفاده شود، می تواند منجر به مشکلات جدی فردی و اجتماعی شود.
دستکاری اجتماعی نیز به عنوان یک خطر هوش مصنوعی به حساب می آید. این ترس به واقعیت تبدیل شده است، زیرا سیاستمداران برای ترویج دیدگاههای خود به پلتفرمها متکی هستند، به عنوان مثال فردیناند مارکوس جوان در جریان انتخابات فیلیپین در سال ۲۰۲۲ ارتش ترول را با کمک “تیک توک” بکار گرفت.
حال این ارتش از کجا آمده؟
نام رایج برای یک سازمان مخفی در روسیه که اینترنت را از طرف دولت دستکاری می کند. با کمک عروسک های جورابی – هویت های ساختگی – روحیه عمومی در انجمن های آنلاین و بخش نظرات سایت های خبری تحت تأثیر منافع دولت روسیه قرار می گیرد.
نحوه تشخیص دیپ فیک:
دیپ فیک ها عکس ها، فیلم ها یا فایل های صوتی دستکاری شده ای هستند که با استفاده از هوش مصنوعی ایجاد شده اند. آنها افرادی را نشان می دهند که کارهایی را انجام می دهند یا می گویند که هرگز انجام نداده اند یا نگفته اند. این اصطلاح از دو کلمه “یادگیری عمیق” (روشی که هوش مصنوعی از طریق آن یاد می گیرد) و “جعلی” ساخته شده است (دیپ فیک)
دیپ فیک اغلب برای تبلیغات سیاسی و همچنین برای مقاصد پورنوگرافی استفاده می شود. آنها را می توان به راحتی با استفاده از برنامه ها یا فیلترهای داخلی ایجاد کرد. با این حال، استفاده از آنها بدون رضایت شخص مورد نظر ممکن است حق چاپ را نقض کند.
برخی ویژگیهای معمولی وجود دارد که میتواند نشاندهنده دیپفیک باشد: این ویژگیها عبارتند از چهره غیرطبیعی، انتقالهای تار، عدم چشمک زدن، کیفیت ناسازگار و پسزمینه غیرمنطقی. ابزارهایی هم هستند که می توانند به نیز می توانند به شما در تشخیص دیپ فیک کمک کنند. با این حال، از آنجایی که فناوریهای موجود در پشت دیپ فیکها به پیشرفت خود ادامه میدهند، همیشه باید زمینه چنین محتوای آنلاین را بررسی کنید.
گزارشهای نادرست؛ گزارشها، مقالات، پستها یا ویدیوهای حاوی اطلاعات نادرست هستند که عمدتآ به عمد در اینترنت منتشر میشوند. هدف فریب دادن، ترساندن، بیقراری هر چه بیشتر مردم یا ایجاد احساسات علیه یک علت یا گروه جمعیتی خاص است. این روزها اخبار جعلی به سرعت در شبکه های اجتماعی پخش می شود.
نمونه هایی از اخبار جعلی در اینترنت:
ـ جعل و گزارش های طنز: این شامل گزارش های طنز و همچنین شایعات صرف است که اغلب تشخیص آنها از اخبار واقعی دشوار است. حتی اگر قصد طنز یا شوخ طبعی داشته باشند، می توانند مردم را فریب دهند و عمداً گمراه کنند.
ـ رقابت ها و پیشنهادهای تقلبی: عناوین نادرستی که وعده جایزه خاص یا دسترسی به پیشنهادهای انحصاری را می دهند، کاربران را فریب می دهند تا اطلاعات شخصی خود را افشا کنند یا لینک های مضر کلیک کنند. سوء استفاده از داده ها یا آسیب مالی می تواند پیامدهای چنین تلاش های کلاهبرداری باشد.
ـ نظرات و گواهی های کارشناسی جعلی: ادعاهای نادرستی که ظاهراً از سوی کارشناسان یا شخصیت های شناخته شده می آید، از اعتماد کاربران به منظور تبلیغ برخی محصولات، خدمات یا دیدگاه های سیاسی سوء استفاده می کند.
ـ گزارش ها و رسوایی های جنجالی نادرست: تیترهای هیجان انگیزی که رویدادهای هیجان انگیز یا جنجالی را اغراق یا تحریف می کنند و توجه خوانندگان را به خود جلب می کنند. هدف ممکن است برانگیختن ترس یا تضعیف اعتماد به افراد یا مؤسسات خاص باشد.
ـ گزارشهای دستکاری و پیامهای نفرت انگیز: این پیامها عمدتاً در شبکههای اجتماعی پخش میشوند و با هدف ایجاد برای یا علیه یک هدف سیاسی، گروههای جمعیتی خاص یا افراد هستند. برخی از این اخبار جعلی بر اساس رویدادهای واقعی هستند که تحریف یا اشتباه جلوه داده شده اند، در حالی که برخی دیگر کاملاً ساختگی هستند.
چگونه بدانیم که اخبار جعلی هستند ؟
علامت ها و نشانه هایی وجود دارند که اشاره به اخبار جعلی می کنند، مانند:
زبان مبهم و هیجانانگیز (مثلاً «خدای من! عالی! باورنکردنی!»، «باور نمیکنید بعد چه اتفاقی افتاد!») ـ
اصطلاحات احساسی (مانند “وحشتناک”، “دلخراش”، “باور نکردنی”) ـ
ـ عناوین غیر طبیعی: کلاهبرداری ها اغلب دارای عناوین پوچ یا اغراق آمیز هستند که برای جلب توجه طراحی شده اند.
تصاویر هوش مصنوعی شدید و تکان دهنده ـ
ـ فقدان جزئیات یا منابع: حقهها اغلب حاوی جزئیات یا منابع کمی هستند یا هیچ منبعی برای حمایت از ادعاهای خود ندارند.
اعداد و آمار مشکوک بدون مدرک ـ
ـ حسابهای مشکوک: گزارشهای نادرست اغلب توسط حسابها یا حسابهای جعلی بدون تأیید پخش میشوند (مثلاً تیک آبی در اینستاگرام).
برانگیختن ترس (مثلاً «این یک تهدید برای همه ماست!»، «میبینید») ـ
تعمیمها (مثلاً «همه… هستند…») ـ
تئوری های توطئه (به عنوان مثال در مورد مغز متفکران مخفی، ذینفعان، قدرت های ناشناخته، و غیره)
بدین ترتیب در برابر اخبار جعلی اقدام کنید:
گزارش های نادرست را نادیده بگیرید و آنها را بیشتر پخش نکنید. پیام های مشکوک را حذف کنید یا نادیده بگیرید، شتابزده روی لینک ها کلیک نکنید یا پیوست های ناشناخته را باز نکنید. مهمتر از همه، گزارش های نادرست را فوروارد نکنید، لایک نکنید یا به اشتراک نگذارید. افرادی که اخبار نادرست را منتشر می کنند یا پست های خود را مخفی می کنند، مسدود کنید.
ـ سخنرانی مخالف ارائه دهید و به طور عینی بحث کنید. با بررسی محتوای آنلاین و اصلاح آن با حقایق، گزارش های نادرست را رد کنید. ضد گفتار می تواند ابزار قدرتمندی برای مقابله با ادعاهای نادرست و نفرت آنلاین باشد. اما همیشه عینی و محترمانه بحث کنید و اجازه ندهید که تحریک شوید.
ـ تقلب ها را گزارش کنید. می توانید گزارش های نادرست و پست های نفرت انگیز را مستقیماً در شبکه های اجتماعی و دفاتر گزارش رسمی گزارش دهید. برای محدود کردن گسترش آنها باید حتما این کار را انجام دهید.
نکاتی برای معلمان در مورد نحوه استفاده از هوش مصنوعی در کلاس درس:
نادیده نگیرید. دانش آموزان به هر صورت از ابزار ” چت جی بی تی” استفاده می کنند با اینکه شما در مقابلش شک و شبه دارید. بنابراین خود را در مقابل فرصت و ریسک های برنامه های کاربردی هوش مصنوعی قرار داده و نشان دهید که نقد منابع چه جایگاهی دارد.
ـ کلا ممنوع نکنید. ممنوعیت فرصت تعامل فعال با موضوع و همچنین اشاره به نقاط ضعف هوش مصنوعی را از بین می برد.
ـ مشترکا استفاده کنید. با یکدیگر امکانات و محدودیت های برنامه های هوش مصنوعی و قوانین طراحی برای زندگی روزمره را در کلاس و مدرسه کشف کنید.
نتیجه استفاده از هوش مصنوعی در مدارس تا کنون:
استفاده از هوش مصنوعی در مدارس هنوز با تردید مواجه است. این واقعیت که دانش آموزان به طور فزاینده ای از برنامه های کاربردی هوش مصنوعی استفاده می کنند، ارزیابی عملکرد را برای معلمان دشوارتر می کند، در حالی که دانش آموزان اغلب تشخیص پاسخ های نادرست از چت ربات های هوش مصنوعی و ارزیابی صحیح اطلاعات را دشوار می کنند. این امر مشارکت فعالانه با هوش مصنوعی در کلاس و تمرکز بیشتر بر ارتقای سواد اطلاعاتی و تمرین انتقاد منبع را بیش از پیش مهم می کند.