الگوریتم‌,تکنولوژیک,شبکه عصبی

هوش مصنوعی بخش سوم

در بخش سوم از رشته یادداشتها درباره محسنات و خطرات هوش مصنوعی به خطرات احتمالی هوش مصنوعی پرداخته می شود.

فرصت ‌ها و تهدید ها:

 با وجود این نگرانی‌ها، مدل‌ها و فناوری‌های هوش مصنوعی نیز فرصت‌های مهمی را ارائه می‌دهند، برای نمونه بهبود کارآیی و اثربخشی در زمینه هایی مانند مراقبت های بهداشتی، اجرای قانون و بسیاری موارد دیگر. چالش این است که این فناوری‌ها را به گونه‌ای طراحی و تنظیم کنیم که مزایا را به حداکثر برسانند و معایب را به حداقل. بحث در مورد هوش مصنوعی فقط در مورد پیشرفت های تکنولوژیکی نیست، بلکه در مورد مسائل اخلاقی، اجتماعی و سیاسی عمیق است. توسعه بیشتر و ادغام هوش مصنوعی در جامعه نیازمند رویکردی متعادل است که هم پتانسیل عظیم و هم خطرات را در نظر می گیرد.

بسیار مهم است که چالش های مرتبط با هوش مصنوعی را بشناسیم و به آنها پاسخ دهیم تا آینده ای را تضمین کنیم که در آن از فناوری های هوش مصنوعی به سود همه استفاده شود. توسعه و بهره برداری از هوش مصنوعی باید با درک عمیق مسائل اخلاقی، خطرات امنیتی و احتمال به نابودی بشر هدایت شود. با تعادل مناسب بین شناسایی فرصت ها و مدیریت ریسک ها، هوش مصنوعی می تواند نیروی محرکه ای برای دگرگونیهای مثبت باشد.

کاربردهای احتمالی از هوشواره نیز برای شرکت‌ها اهمیت فزاینده‌ای پیدا می‌کند، زیرا آنها مزایای مختلفی را به همراه دارند. یک استراتژی هوش مصنوعی سنجیده و جامع برای تضمین مزیت رقابتی پایدار بسیار مهم است. شرکت هایی که از یک برنامه مشخص پیروی می کنند از هوش مصنوعی به طور موثرتر و موفقیت آمیزی استفاده می کنند. بنابراین برنامه ریزی و استراتژی برای موفقیت پروژه های هوش مصنوعی ضروری است.

مواردی از معایب هوش مصنوعی:

آیا هوش مصنوعی خطرناک است؟

جامعه فناوری مدت هاست در مورد تهدیدات ناشی از هوش مصنوعی بحث کرده است. اتوماسیون مشاغل، انتشار اخبار جعلی و مسابقه تسلیحاتی خطرناک. تسلیحات مجهز به هوش مصنوعی به عنوان برخی از بزرگترین خطرات ناشی از هوش مصنوعی ذکر شده است.

همانطور که هوش مصنوعی پیچیده تر و گسترده تر می شود، صداهای هشدار نسبت به خطرات بالقوه هوش مصنوعی بلندتر می شوند.

جفری هینتون، معروف به پدرخوانده هوش مصنوعی برای کار اساسی خود در زمینه شبکه عصبی و یادگیری ماشینی، گفت: “این چیزها می‌توانند هوشمندتر از ما باشند و می‌توانند تصمیم بگیرند که کنترل را در دست بگیرند، و اکنون باید نگران این باشیم که چگونه از این اتفاق جلوگیری کنیم” . او شرکت گوگل را ترک کرد تا بتواند درباره خطرات هوش مصنوعی صحبت کند. او حتی گفته که از کار خودش پشیمان است

این دانشمند مشهور کامپیوتر در نگرانی های خود تنها نیست. ایلان ماسک، بنیانگذار تسلا و اسپیس ایکس، به همراه بیش از ۱۰۰۰ رهبر فناوری دیگر، در نامه ای سرگشاده در سال ۲۰۲۳ خواستار توقف آزمایش های بزرگ هوش مصنوعی شدند و اشاره کردند که این فناوری می تواند “خطرات عمیقی” برای جامعه و بشریت ایجاد کند.

خواه این اتوماسیون فزاینده مشاغل خاص باشد، الگوریتم‌های مغرضانه جنسیتی و نژادی یا سلاح ‌های مستقلی که بدون نظارت انسان عمل می‌کنند، نگرانی در شماری از جبهه ‌ها وجود دارد، و ما هنوز در مراحل اولیه توانایی هوش مصنوعی هستیم.

اما هوش مصنوعی کامل نیست. دلایل این کمبودها چه می توانند باشند؟:

۱- هوش مصنوعی همدل نیست

همدلی توانایی درک و به اشتراک گذاشتن احساسات با دیگران است. این قابلیتی ست که انسان ها دارند و روبات ها ندارند.

۲- هوش مصنوعی می تواند افراد و فناوری را دستکاری کند

دستکاری وسایل نقلیه خودران یک نگرانی عمده همگانی ست. به این دلیل که فناوری‌های مجهز به هوش مصنوعی کامل نیستند و می‌توان آن‌ها را دستکاری کرد.

دو نوع دستکاری ممکن است اتفاق بیفتد: اولین نوع دستکاری زمانی است که فناوری مجهز به هوش مصنوعی توسط انسان دستکاری شده و منجر به آسیب ناخواسته به انسان شود. نوع دوم دستکاری زمانی اتفاق می‌افتد که فناوری مجهز به هوش مصنوعی، سایر فناوری‌ها یا عوامل مجهز به هوش مصنوعی را دستکاری می‌کند و در نتیجه آسیب ناخواسته به افراد وارد می‌شود.

۳- فناوری‌های مجهز به هوش مصنوعی نمی‌توانند زمینه را درک کنند یا در موقعیت‌های غیرعادی قضاوت کنند.

الگوریتم‌هایی که از فناوری‌های مبتنی بر هوش مصنوعی برای تصمیم‌گیری استفاده می‌کنند، اغلب مغرضانه هستند. این به این دلیل است که داده‌هایی که این الگوریتمها از آنها یاد می‌گیرند ممکن است به هر طریقی مغرضانه باشد. به عنوان مثال، یک الگوریتم می تواند بر روی مجموعه داده ای از رزومه آموزش داده شود و بعداً متوجه شود که نسبت به متقاضیان مرد با حقوق بالاتر تعصب یا حساسیت دارد.

نوع دیگری از سوگیری الگوریتمی زمانی رخ می‌دهد که داده‌ها به روشی جانبدارانه جمع‌آوری شوند. به عنوان مثال، وقتی یک الگوریتم چیزی در مورد موضوعات خاص می آموزد، وقتی فقط مقالات خبری از یک طرف طیف سیاسی را می خواند، او تمایل به این سمت از طیف سیاسی خواهد داشت.

۴- عدم شفافیت و پاسخگویی در تصمیم گیری از طریق هوش مصنوعی وجود دارد

فقدان شفافیت و پاسخگویی در تصمیم گیری های هوش مصنوعی مشکلی بنیادی ست. به این دلیل که این سیستم ها اغلب غیرشفاف هستند و درک نحوه تصمیم گیری و منطق آنها را دشوار می کند. اینْ خود می تواند منجر به سوگیری، بی انصافی یا سایر پیامدهای ناخواسته شود.

درک مدل‌های هوش مصنوعی و یادگیری عمیق، حتی برای کسانی که مستقیماً با این فناوری کار می‌کنند، دشوار است. این منجر به عدم شفافیت در مورد چگونگی و چرایی نتیجه‌گیری هوش مصنوعی می‌شود و توضیحی در مورد اینکه الگوریتم‌های هوش مصنوعی از چه داده‌هایی استفاده می‌کنند یا اینکه چرا ممکن است تصمیم‌های مغرضانه یا ناایمن بگیرند، ایجاد نمی‌کند. این نگرانی‌ها منجر به استفاده از هوش مصنوعی قابل توضیح شده است، اما هنوز راه زیادی تا تبدیل شدن سیستم‌های هوش مصنوعی شفاف به روش معمول وجود دارد.

هوش مصنوعی قابل توضیح:

هوش مصنوعی قابل توضیح مجموعه‌ای از تکنیک‌ها، اصول و فرآیندهایی است که برای کمک به سازندگان و کاربران مدل‌های هوش مصنوعی استفاده می‌شود تا بفهمند این مدل‌ها چگونه تصمیم می‌گیرند. این اطلاعات می تواند برای بهبود دقت مدل یا شناسایی و رسیدگی به رفتارهای ناخواسته مانند تصمیم گیری مغرضانه استفاده شود.

هوش مصنوعی قابل توضیح را می توان برای توصیف یک مدل هوش مصنوعی، تأثیر مورد انتظار آن و هرگونه سوگیری احتمالی، و همچنین ارزیابی دقت و انصاف آن استفاده کرد. با پیشرفت بیشتر هوش مصنوعی، بسیاری هوش مصنوعی قابل توضیح را برای آینده صنعت ضروری می دانند.

یادگیری عمیق:

آیا تا به حال فکر کرده اید که چگونه گوگل می تواند کل پاراگراف ها را از یک زبان به زبان دیگر در چند میلی ثانیه ترجمه کند. چگونه نتفلیکس و یوتیوب می توانند توصیه های خوبی ارائه دهند؟ حتی ماشین های خودران چگونه ممکن است؟

همه این نوآوری ها محصول یادگیری عمیق و شبکه های عصبی مصنوعی هستند.

شبکه عصبی چیست؟

شبکه عصبی مجموعه‌ای از الگوریتم‌ها است که تلاش می‌کند تا روابط زیربنایی را در مجموعه‌ای از داده‌ها از طریق فرآیندی که نحوه عملکرد مغز انسان را تقلید می‌کند، تشخیص دهد. از این نظر، شبکه‌های عصبی به سیستم‌هایی از نورون‌ها، اعم از ارگانیک یا مصنوعی اشاره دارند. شبکه های عصبی می توانند با یک ورودی در حال تغییر سازگار شوند، بنابراین شبکه بهترین نتیجه ممکن را بدون نیاز به طراحی مجدد معیارهای خروجی ایجاد می کند.

۵- مسائل اخلاقی در ساختن یک اَبَرهوش

مسئله مشکلات اخلاقی با هوش مصنوعی مسئله بسیار مهمی است. امکان تولید سلاح های خودمختار نمونه بسیار خوبی از این واقعیت است. اگر هیچ قانون یا مقرراتی برای جلوگیری از توسعه این سلاح ها وجود نداشته باشد چه؟ این امکان وجود دارد که ارتش بدون نگرانی و توجه به آسیب های جانبی از آنها برای کشتن دشمن استفاده کند.

۶- هوش مصنوعی تأثیر منفی بر مشاغل و رشد اقتصادی مردم دارد

استفاده از هوش مصنوعی در محیط کار رشد تصاعدی را تجربه کرده است. تخمین زده می شود که تا سال ۲۰۲۵ هوش مصنوعی یک سوم مشاغل را به خود اختصاص دهد. جای تعجب نیست که مردم از اینکه این به چه معناست برای آینده خود و توانایی آنها برای امرار معاش می ترسند. این ترس موجه است زیرا بسیاری از صنایع در حال حاضر شاهد تأثیر اتوماسیون بر مشاغل و رشد اقتصادی هستند، کشاورزی و تولید دو بخش هستند که به شدت توسط فناوری‌های مبتنی بر هوش مصنوعی مختل شده‌اند.

۷- هوش مصنوعی خطرات امنیتی دارد

هوش مصنوعی یک فناوری نوظهور است که توانسته مشکلاتی را که قبلا غیرقابل حل بودند حل کند. به توسعه محصولات، خدمات و فرآیندهای جدید کمک کرده است. همانطور که هوش مصنوعی پیشرفته تر می شود، می تواند راه حل هایی برای بسیاری از مشکلات در آینده ارائه دهد. با این حال، هوش مصنوعی بدون خطر نیست.

آلگوریتم های پشتیبانی شده از هوش مصنوعی در برابر حملات هکرها آسیب پذیر هستند. این بدان معنی است که هکرها می توانند پروفایل های جعلی رسانه های اجتماعی یا برنامه های چت را برای سرقت اطلاعات از کاربران ناآگاه ایجاد کنند. اگر یک هکر موفق به سرقت اطلاعات شخصی شما شود، می تواند از آن در راه هایی استفاده کند که به شما آسیب برساند، مانند سرقت هویت یا کلاهبرداری از کارت اعتباری.

ـ۱-۷ نگرانی های مربوط به حریم خصوصی و امنیتی:

 برنامه های کاربردی هوش مصنوعی اغلب نیاز به دسترسی به مقادیر زیادی از داده ها دارند، که می تواند منجر به دسترسی به مسائل مربوط به حریم خصوصی یا سوء استفاده از داده ها شود و حریم خصوصی کاربر را به خطر بیندازد. خطر افشاء یا هک شدن اطلاعات حساس وجود دارد – مانند داده های بهداشتی مورد استفاده در زمینه پزشکی یا ابزارهای پوشیدنی، یا داده های شخصی که توسط چت بات ها و موتورهای جستجوی هوش مصنوعی قابل دسترسی هستند.

اگر با یک چت ربات هوش مصنوعی بازی کرده باشید یا یک فیلتر چهره هوش مصنوعی را به صورت آنلاین امتحان کرده باشید، داده های شما جمع آوری می شود – اما این داده ها به کجا می رود و چگونه از آن استفاده می شود؟ سیستم‌های هوش مصنوعی اغلب داده‌های شخصی را برای سفارشی‌سازی تجربیات کاربر یا کمک به آموزش مدل‌های هوش مصنوعی که استفاده می‌کنید جمع‌آوری می‌کنند (مخصوصاً اگر ابزار هوش مصنوعی رایگان باشد). حتی ممکن است زمانی که داده‌ها به یک سیستم هوش مصنوعی داده می‌شوند از سایر کاربران امن تلقی نشوند، زیرا یک حادثه باگ در ” چت جی پی تی “در سال ۲۰۲۳ رخ داد که به برخی از کاربران اجازه داد که عناوین تاریخچه چت کاربران فعال دیگر را ببینند. در حالی که قوانینی برای محافظت از اطلاعات شخصی در برخی موارد در ایالات متحده وجود دارد، هیچ قانون فدرال صریحی وجود ندارد که از شهروندان در برابر آسیب های حریم خصوصی داده ها که توسط هوش مصنوعی متحمل می شوند محافظت کند.

۸- فقدان دستورالعمل های اخلاقی برای اطمینان از ایمن بودن استفاده از این سیستم ها وجود دارد

فقدان دستورالعمل های اخلاقی برای اطمینان از اینکه این سیستم ها می توانند به طور ایمن استفاده شوند، یک مشکل بزرگ است. برخی از محققان استدلال می کنند که امکان ندارد نویسندگان هوش مصنوعی کاملاً عاری از سوگیری باشند، که یک مشکل جدی است زیرا نویسندگان هوش مصنوعی اغلب در زمینه های حساس مانند مراقبت های بهداشتی، پیگیری جرایم و آموزش استفاده می شوند.

۹ـ بحران های مالی ناشی از الگوریتم های هوش مصنوعی

صنعت مالی پذیرای مشارکت فناوری هوش مصنوعی در فرآیندهای مالی و معاملات روزمره شده است. در نتیجه، معاملات الگوریتمی می توانند مسئول بحران مالی بعدی ما در بازارها باشد.

در حالی که الگوریتم‌های هوش مصنوعی تحت تأثیر قضاوت یا احساسات انسان قرار نمی‌گیرند، اما زمینه‌ها، به هم پیوستگی بازارها و عواملی مانند اعتماد و ترس انسان را نیز در نظر نمی‌گیرند. سپس این الگوریتم‌ها هزاران معامله را با سرعتی بسیار زیاد انجام می‌دهند و هدفشان این است که چند ثانیه بعد به سودهای کوچک بفروشند. فروختن هزاران معامله می تواند سرمایه گذاران را از انجام همین کار بترساند و منجر به سقوط ناگهانی و نوسان شدید بازار شود.

مواردی مانند سقوط فلش ​​در سال ۲۰۱۰ و فلش ​​نایت کاپیتال به عنوان یادآوری از نوسانات بازار ارز سخن می گوید. این بدان معنا نیست که هوش مصنوعی چیزی برای ارائه به دنیای مالی ندارد. در واقع، الگوریتم‌های هوش مصنوعی می‌توانند به سرمایه‌گذاران کمک کنند تا تصمیمات هوشمندانه‌تر و آگاهانه‌تری در بازار بگیرند. اما سازمان های مالی باید مطمئن شوند که الگوریتم های هوش مصنوعی و نحوه تصمیم گیری آن الگوریتم ها را درک می کنند. شرکت‌ها باید قبل از معرفی این فناوری برای جلوگیری از ایجاد ترس در بین سرمایه‌گذاران و ایجاد هرج و مرج مالی، در نظر بگیرند که آیا هوش مصنوعی اعتماد آنها را بالا می‌برد یا کاهش می‌دهد.

۱۰ـ از دست دادن نفوذ انسانی

اتکای بیش از حد به فناوری هوش مصنوعی می‌تواند منجر به از بین رفتن نفوذ انسانی – و فقدان عملکرد انسانی – در برخی از بخش‌های جامعه شود. به عنوان مثال، استفاده از هوش مصنوعی در مراقبت های بهداشتی می تواند منجر به کاهش همدلی و استدلال انسان شود. و استفاده از هوش مصنوعی مولد برای تلاش‌های خلاقانه می‌تواند خلاقیت و بیان احساسی انسان را کاهش دهد. تعامل بیش از حد با سیستم های هوش مصنوعی حتی می تواند باعث کاهش مهارت های ارتباطی و اجتماعی با همتایان شود. بنابراین در حالی که هوش مصنوعی می‌تواند برای خودکار کردن کارهای روزانه بسیار مفید باشد، برخی این سوال را مطرح می‌کنند که آیا ممکن است هوش، توانایی‌ها و نیاز کلی انسان به جامعه را کاهش دهد یا نه.

۱۱_ جنگ افزارهای خودمختار که هوش مصنوعی طراحی کرده است:

همانطور که اغلب اتفاق می افتد، پیشرفت های فناوری برای اهداف جنگی به کار گرفته شده اند. هنگامی که سخن از هوش مصنوعی به میان می‌آید، برخی تمایل دارند تا پیش از اینکه خیلی دیر شود کاری در مورد آن انجام دهند: در نامه‌ای سرگشاده در سال ۲۰۱۶، بیش از ۳۰,۰۰۰ نفر، از جمله محققان هوش مصنوعی و روباتیک، از سرمایه‌گذاری در سلاح‌های خودران با سوخت هوش مصنوعی عقب‌نشینی کردند.

ایشان نوشتند: “پرسش کلیدی برای بشریت امروز این است که آیا باید یک مسابقه تسلیحاتی جهانی هوش مصنوعی را آغاز کرد یا از شروع آن جلوگیری کرد. اگر هر قدرت نظامی بزرگی با توسعه تسلیحات هوش مصنوعی پیشروی کند، یک مسابقه تسلیحاتی جهانی عملاً اجتناب ناپذیر است و نقطه پایانی این خط سیر فناوری آشکار است: سلاح‌های خودمختار به کلاشینکف‌های فردا تبدیل خواهند شد”.

این پیش‌بینی در قالب سیستم‌های تسلیحاتی خودمختار مرگبار محقق شد که با رعایت مقررات کمی اهداف را به‌تنهایی شناسایی و نابود می‌کنند. به دلیل گسترش سلاح‌های قوی و پیچیده، برخی از قدرتمندترین کشورهای جهان تسلیم نگرانی‌ها شده‌اند و به جنگ سرد فناوری کمک کرده‌اند.

بسیاری از این سلاح‌های جدید خطرات عمده‌ای را برای غیرنظامیان در زمین ایجاد می‌کنند، اما این خطر زمانی تشدید می‌شود که سلاح‌های خودمختار به دست افراد اشتباه بیفتند. هکرها بر انواع مختلفی از حملات سایبری تسلط یافته اند، بنابراین تصور اینکه یک بازیگر مخرب به سلاح های خود مختار نفوذ کند و آخر زمان را تحریک کند، سخت نیست.

۱۲ـ  هوش مصنوعی خودآگاه غیرقابل کنترل:

همچنین این نگرانی وجود دارد که هوش مصنوعی آنقدر سریع در هوش پیشرفت کند که هوشیار شود و فراتر از کنترل انسان عمل کند – احتمالاً به روشی مخرب.  گزارش‌های ادعایی از این هوشیاری قبلاً رخ داده است، با یکی از گزارش های معروف از سوی یکی از مهندسان سابق گوگل که در یک چت بات هوش مصنوعی بیان شده، این چنان با احساس بود انگار که یک شخص با او صحبت می کرد. از آنجایی که نقاط عطف بزرگ بعدی هوش مصنوعی شامل ساخت سیستم‌هایی با هوش عمومی مصنوعی و در نهایت هوش مصنوعی است، بحران ها برای متوقف کردن کامل این تحولات همچنان در حال افزایش است.

خطرات دیگر هوش مصنوعی:

ـ عدم شفافیت و کنترل:

 بسیاری از مدل‌های هوش مصنوعی آنقدر پیچیده هستند که درک یا کنترل نحوه عملکرد آنها کمابیش ناممکن است. این نکته می تواند رفتار آنها را پیش بینی ناپذیر و درک تصمیمات آنها را دشوار کند.

ـ تعصبات و تبعیض ناشی از هوش مصنوعی:

 بسته به اینکه یک هوش مصنوعی با چه مقدار و چه داده هایی یاد می گیرد، خوب یا کمتر خوب کار می کند  و همچنین می تواند اثرات تبعیض آمیز داشته باشد. به عنوان مثال، اگر با داده هایی که شامل تفاوت در برخورد رفتار  یا رفتار تبعیض آمیز است، آموزش داده شود، نتایج و تصمیمات آن منعکس کننده همان کلیشه ها و تبعیض خواهد بود.

ـ امتناع از پذیرش سوگیری:

اگر شرکت‌ها از پذیرش سوگیری‌های ذاتی موجود در الگوریتم‌های هوش مصنوعی امتناع کنند، ممکن است ابتکارات خود را از طریق استخدام مبتنی بر هوش مصنوعی به خطر بیاندازند. این ایده که هوش مصنوعی می‌تواند ویژگی‌های یک نامزد را از طریق تجزیه و تحلیل‌های چهره و صدا اندازه‌گیری کند، همچنان با تعصبات نژادی آلوده است و همان شیوه‌های استخدام تبعیض‌آمیز را بازتولید می‌کند که مشاغل ادعا می‌کنند حذف می‌کنند.

ـ گسترش نابرابری اجتماعی-اقتصادی:

گسترش نابرابری اجتماعی-اقتصادی ناشی از از دست دادن شغل به دلیل استفاده از هوش مصنوعی یکی دیگر از دلایل نگرانی است که سوگیری های طبقاتی را آشکار می کند. کارگرانی که کارهای دستی و تکراری بیشتری انجام می دهند، به دلیل اتوماسیون، دستمزدشان تا ۷۰ درصد کاهش پیدا کرده است، در حالی که کارکنان اداری در مراحل اولیه هوش مصنوعی تا حد زیادی دست نخورده باقی می مانند. با این حال، افزایش استفاده از هوش مصنوعی مولد در حال حاضر مشاغل اداری را تحت تاثیر قرار داده است و طیف وسیعی از نقش‌ها را به وجود می‌آورد که ممکن است نسبت به سایرین در برابر دستمزد یا از دست دادن شغل آسیب‌پذیرتر باشند.

ادعاهای فراگیر مبنی بر اینکه هوش مصنوعی به نوعی بر مرزهای اجتماعی غلبه کرده یا مشاغل بیشتری ایجاد کرده است، نمی تواند تصویر کاملی از اثرات آن را ارائه دهد. در نظر گرفتن تفاوت ها بر اساس نژاد، طبقه و سایر دسته ها بسیار مهم است. در غیر این صورت، تشخیص اینکه هوش مصنوعی و اتوماسیون چگونه به ضرر افراد و گروه‌های خاص به نفع دیگران است، دشوارتر می‌شود.

اشکال مختلف سوگیری هوش مصنوعی نیز زیانبار هستند. اولگا روساکوفسکی، استاد علوم کامپیوتر پرینستون، در گفتگو با نیویورک تایمز گفت که تعصب هوش مصنوعی فراتر از جنسیت و نژاد است. علاوه بر داده ها و سوگیری الگوریتمی (که دومی می تواند اولی را تقویت کند)، هوش مصنوعی توسط انسان ها توسعه یافته است – و انسان ها ذاتاً سوگیری دارند.

روساکوفسکی گفت: محققان عمدتاً مردانی هستند که از جمعیت‌های نژادی خاص می‌آیند، در مناطق اجتماعی-اقتصادی بالا بزرگ شده‌اند، در درجه اول افراد بدون معلولیت. ما جمعیت نسبتاً همگنی هستیم، بنابراین فکر کردن به طور گسترده در مورد مسائل جهانی یک چالش است.

تجارب محدود سازندگان هوش مصنوعی ممکن است توضیح دهد که چرا هوش مصنوعی تشخیص گفتار اغلب لهجه‌ها و لهجه‌های خاص را درک نمی‌کند، یا چرا شرکت‌ها عواقب جعل چهره‌های بدنام تاریخ بشریت در یک ربات چت را در نظر نمی‌گیرند. توسعه‌دهندگان و کسب‌وکارها باید دقت بیشتری به خرج دهند تا از بازآفرینی سوگیری‌ها و پیش‌داوری‌های قدرتمندی که جمعیت اقلیت‌ها را در معرض خطر قرار می‌دهد، اجتناب کنند.

ـ مشکلات کیفیت و حساسیت به خطاها:

 سیستم های هوش مصنوعی بدون خطا نیستند و می توانند نتایج نادرست یا گمراه کننده ای ارائه دهند، به خصوص اگر با داده های آموزشی ناکافی یا تحریف شده کار کنند یا برنامه ریزی شده اند تا در هر موردی پاسخی بدهند – حتی اگر داده ها این اجازه را ندهند و بنابراین باید پاسخ ها را ابداع کرد. بنابراین اطلاعات ربات‌های چت یا موتورهای جستجوی هوش مصنوعی باید همیشه با چندین منبع مقایسه شوند.

ـ واقعیت تحریف شده و حباب‌های فیلتر:

 در رسانه‌های اجتماعی، الگوریتم‌های مبتنی بر هوش مصنوعی تضمین می‌کنند که فقط محتوای ظاهرآ مرتبط به ما نشان داده می‌شود. این خود می تواند منجر به ایجاد حباب های فیلتر شود که درک یک طرفه را ترویج می کند. ابزارهای هوش مصنوعی مانند فیلترهای زیبایی که تصاویر غیرواقعی بدن را تقویت می‌کنند و در نتیجه بر زنان و جوانان به‌ویژه فشار وارد می‌کنند، می‌توانند به تحریف واقعیت کمک کنند.

ـ سوء استفاده و دستکاری:

 برنامه های کاربردی هوش مصنوعی همچنین می توانند برای اهداف سوء استفاده یا دستکاری استفاده شوند، به عنوان مثال. ایجاد دیپ فیک، انتشار اطلاعات نادرست یا نظارت و کنترل کاربران خود. اگر از هوش مصنوعی برای تبلیغات سیاسی یا دستکاری اجتماعی استفاده شود، می تواند منجر به مشکلات جدی فردی و اجتماعی شود.

دستکاری اجتماعی نیز به عنوان یک خطر هوش مصنوعی به حساب می آید. این ترس به واقعیت تبدیل شده است، زیرا سیاستمداران برای ترویج دیدگاه‌های خود به پلتفرم‌ها متکی هستند، به عنوان مثال فردیناند مارکوس جوان در جریان انتخابات فیلیپین در سال ۲۰۲۲   ارتش ترول را با کمک “تیک توک” بکار گرفت.

حال این ارتش از کجا آمده؟

نام رایج برای یک سازمان مخفی در روسیه که اینترنت را از طرف دولت دستکاری می کند. با کمک عروسک های جورابی – هویت های ساختگی – روحیه عمومی در انجمن های آنلاین و بخش نظرات سایت های خبری تحت تأثیر منافع دولت روسیه قرار می گیرد.

نحوه تشخیص دیپ فیک:

دیپ فیک ها عکس ها، فیلم ها یا فایل های صوتی دستکاری شده ای هستند که با استفاده از هوش مصنوعی ایجاد شده اند. آنها افرادی را نشان می دهند که کارهایی را انجام می دهند یا می گویند که هرگز انجام نداده اند یا نگفته اند. این اصطلاح از دو کلمه “یادگیری عمیق” (روشی که هوش مصنوعی از طریق آن یاد می گیرد) و “جعلی” ساخته شده است (دیپ فیک)

دیپ فیک اغلب برای تبلیغات سیاسی و همچنین برای مقاصد پورنوگرافی استفاده می شود. آنها را می توان به راحتی با استفاده از برنامه ها یا فیلترهای داخلی ایجاد کرد. با این حال، استفاده از آنها بدون رضایت شخص مورد نظر ممکن است حق چاپ را نقض کند.

برخی ویژگی‌های معمولی وجود دارد که می‌تواند نشان‌دهنده دیپ‌فیک باشد: این ویژگی‌ها عبارتند از چهره غیرطبیعی، انتقال‌های تار، عدم چشمک زدن، کیفیت ناسازگار و پس‌زمینه غیرمنطقی. ابزارهایی هم هستند که می توانند به نیز می توانند به شما در تشخیص دیپ فیک کمک کنند. با این حال، از آنجایی که فناوری‌های موجود در پشت دیپ ‌فیک‌ها به پیشرفت خود ادامه می‌دهند، همیشه باید زمینه چنین محتوای آنلاین را بررسی کنید.

گزارشهای نادرست؛ گزارش‌ها، مقالات، پست‌ها یا ویدیوهای حاوی اطلاعات نادرست هستند که عمدتآ به عمد در اینترنت منتشر می‌شوند. هدف فریب دادن، ترساندن، بیقراری هر چه بیشتر مردم یا ایجاد احساسات علیه یک علت یا گروه جمعیتی خاص است. این روزها اخبار جعلی به سرعت در شبکه های اجتماعی پخش می شود.

نمونه هایی از اخبار جعلی در اینترنت:

ـ  جعل و گزارش های طنز: این شامل گزارش های طنز و همچنین شایعات صرف است که اغلب تشخیص آنها از اخبار واقعی دشوار است. حتی اگر قصد طنز یا شوخ طبعی داشته باشند، می توانند مردم را فریب دهند و عمداً گمراه کنند.

ـ  رقابت ها و پیشنهادهای تقلبی: عناوین نادرستی که وعده جایزه خاص یا دسترسی به پیشنهادهای انحصاری را می دهند، کاربران را فریب می دهند تا اطلاعات شخصی خود را افشا کنند یا لینک های مضر کلیک کنند. سوء استفاده از داده ها یا آسیب مالی می تواند پیامدهای چنین تلاش های کلاهبرداری باشد.

ـ نظرات و گواهی های کارشناسی جعلی: ادعاهای نادرستی که ظاهراً از سوی کارشناسان یا شخصیت های شناخته شده می آید، از اعتماد کاربران به منظور تبلیغ برخی محصولات، خدمات یا دیدگاه های سیاسی سوء استفاده می کند.

ـ گزارش ها و رسوایی های جنجالی نادرست: تیترهای هیجان انگیزی که رویدادهای هیجان انگیز یا جنجالی را اغراق یا تحریف می کنند و توجه خوانندگان را به خود جلب می کنند. هدف ممکن است برانگیختن ترس یا تضعیف اعتماد به افراد یا مؤسسات خاص باشد.

ـ گزارش‌های دستکاری و پیام‌های نفرت انگیز: این پیام‌ها عمدتاً در شبکه‌های اجتماعی پخش می‌شوند و با هدف ایجاد برای یا علیه یک هدف سیاسی، گروه‌های جمعیتی خاص یا افراد هستند. برخی از این اخبار جعلی بر اساس رویدادهای واقعی هستند که تحریف یا اشتباه جلوه داده شده اند، در حالی که برخی دیگر کاملاً ساختگی هستند.

چگونه بدانیم که اخبار جعلی هستند ؟

علامت ها و نشانه هایی وجود دارند که اشاره به اخبار جعلی می کنند، مانند:

زبان مبهم و هیجان‌انگیز (مثلاً «خدای من! عالی! باورنکردنی!»، «باور نمی‌کنید بعد چه اتفاقی افتاد!») ـ

اصطلاحات احساسی (مانند “وحشتناک”، “دلخراش”، “باور نکردنی”) ـ

 ـ عناوین غیر طبیعی: کلاهبرداری ها اغلب دارای عناوین پوچ یا اغراق آمیز هستند که برای جلب توجه طراحی شده اند.

تصاویر هوش مصنوعی شدید و تکان دهنده ـ

 ـ فقدان جزئیات یا منابع: حقه‌ها اغلب حاوی جزئیات یا منابع کمی هستند یا هیچ منبعی برای حمایت از ادعاهای خود ندارند.

اعداد و آمار مشکوک بدون مدرک ـ

 ـ حساب‌های مشکوک: گزارش‌های نادرست اغلب توسط حساب‌ها یا حساب‌های جعلی بدون تأیید پخش می‌شوند (مثلاً تیک آبی در اینستاگرام).

برانگیختن ترس (مثلاً «این یک تهدید برای همه ماست!»، «می‌بینید») ـ

تعمیم‌ها (مثلاً «همه… هستند…») ـ

تئوری های توطئه (به عنوان مثال در مورد مغز متفکران مخفی، ذینفعان، قدرت های ناشناخته، و غیره)

بدین ترتیب در برابر اخبار جعلی اقدام کنید:

گزارش های نادرست را نادیده بگیرید و آنها را بیشتر پخش نکنید. پیام های مشکوک را حذف کنید یا نادیده بگیرید، شتابزده روی لینک ها کلیک نکنید یا پیوست های ناشناخته را باز نکنید. مهمتر از همه، گزارش های نادرست را فوروارد نکنید، لایک نکنید یا به اشتراک نگذارید. افرادی که اخبار نادرست را منتشر می کنند یا پست های خود را مخفی می کنند، مسدود کنید.

ـ سخنرانی مخالف ارائه دهید و به طور عینی بحث کنید. با بررسی محتوای آنلاین و اصلاح آن با حقایق، گزارش های نادرست را رد کنید. ضد گفتار می تواند ابزار قدرتمندی برای مقابله با ادعاهای نادرست و نفرت آنلاین باشد. اما همیشه عینی و محترمانه بحث کنید و اجازه ندهید که تحریک شوید.

ـ تقلب ها را گزارش کنید. می توانید گزارش های نادرست و پست های نفرت انگیز را مستقیماً در شبکه های اجتماعی و دفاتر گزارش رسمی گزارش دهید. برای محدود کردن گسترش آنها باید حتما این کار را انجام دهید.

نکاتی برای معلمان در مورد نحوه استفاده از هوش مصنوعی در کلاس درس:

نادیده نگیرید. دانش آموزان به هر صورت از ابزار ” چت جی بی تی” استفاده می کنند با اینکه شما در مقابلش شک و شبه دارید. بنابراین خود را در مقابل فرصت و ریسک های برنامه های کاربردی هوش مصنوعی قرار داده و نشان دهید که نقد منابع چه جایگاهی دارد.

ـ کلا ممنوع نکنید. ممنوعیت فرصت تعامل فعال با موضوع و همچنین اشاره به نقاط ضعف هوش مصنوعی را از بین می برد.

ـ مشترکا استفاده کنید. با یکدیگر امکانات و محدودیت های برنامه های هوش مصنوعی و قوانین طراحی برای زندگی روزمره را در کلاس و مدرسه کشف کنید.

نتیجه استفاده از هوش مصنوعی در مدارس تا کنون:

استفاده از هوش مصنوعی در مدارس هنوز با تردید مواجه است. این واقعیت که دانش آموزان به طور فزاینده ای از برنامه های کاربردی هوش مصنوعی استفاده می کنند، ارزیابی عملکرد را برای معلمان دشوارتر می کند، در حالی که دانش آموزان اغلب تشخیص پاسخ های نادرست از چت ربات های هوش مصنوعی و ارزیابی صحیح اطلاعات را دشوار می کنند. این امر مشارکت فعالانه با هوش مصنوعی در کلاس و تمرکز بیشتر بر ارتقای سواد اطلاعاتی و تمرین انتقاد منبع را بیش از پیش مهم می کند.

دانلود مقاله: