آگاه: رحمتی در این نشست گفت: در سال ۲۰۱۶، مایکروسافت یک چتبات به نام TAY را معرفی کرد. ایده پشت TAY ساده بود؛ این چتبات قرار بود از طریق تعامل با کاربران در توییتر یاد بگیرد و هر چه بیشتر با افراد صحبت کند، در مکالمهها بهتر شود. در BIO آن نیز نوشته شده بود؛ هرچه بیشتر با TAY صحبت کنید، باهوشتر میشود. اما اتفاقات طبق برنامه پیش نرفتند. تنها در عرض ۱۶ساعت، مایکروسافت مجبور شد TAY را متوقف کند زیرا این چتبات شروع به ارسال پیامهای نژادپرستانه و توهینآمیز کرد. TAY این پیامها را از تعاملات کاربران یاد گرفته بود و این آزمایش به یک فاجعه کامل تبدیل شد. این مثال به ما نشان میدهد که وقتی هوش مصنوعی بهدرستی هدایت نشود، میتواند بهسرعت منجر به مشکلات اخلاقی شود که به جامعه آسیب میزند.
ظهور فناوری دیپفیک امر نگرانکنندهای است
وی افزود: مورد دیگری که نگرانکننده است، ظهور فناوری دیپفیک است. هر کدام از ما به نحوی در کشور خود با این مشکل روبرو هستیم. به طور مثال، چندی پیش مصاحبه یک پزشک متخصص که در گذشته از نمایندگان مجلس ایران نیز بوده است، در مورد سلامت رهبر در شبکههای اجتماعی منتشر شد. این پزشک متخصص در این ویدئو اعلام میکند که رهبر انقلاب سلامتیشان در خطر است و علائمی دارند که نشاندهنده عود بیماریهای گذشته ایشان است. این مصاحبه دیپفیک بود و اساسا چنین حرفی درست نبود. حال این سوال برای ما وجود دارد که اصلا این هوش مصنوعی چیست و چگونه در رسانهها استفاده میشود؟ هوش مصنوعی به استفاده از سیستمهای کامپیوتری و الگوریتمها برای انجام وظایفی اشاره دارد که معمولا به هوش انسانی نیاز دارند. در صنعت رسانه، هوش مصنوعی بهطور فزایندهای رایج شده است و کاربردهایی دارد که میتوان به تشخیص اخبار جعلی، شخصیسازی محتوای برای خوانندگان، مدیریت شبکههای اجتماعی، هدفگذاری تبلیغات و بهینهسازی نحوه جستجو و یافتن محتوا اشاره کرد.
کیسینجر در کتاب «هوش مصنوعی و آینده بشریت» که با کمک همکاران خود نوشته است، میگوید: هوش مصنوعی نهتنها ظرفیت پردازش و تحلیل دادهها را به شکلی بیسابقه گسترش میدهد، بلکه بهطور بنیادین چالشهایی را در نحوه تصمیمگیری انسانها، درک ما از جهان و حتی تعریف ما از مفهوم انسان بودن ایجاد میکند؛ این فناوری به ما نشان میدهد که قدرت خلاقیت، تجربه و قضاوت انسانی ممکن است به بازتعریف نیاز داشته باشد، چرا که ماشینها در انجام وظایفی که پیشتر منحصرا برای انسانها بود، از ما پیشی میگیرند. این امر پرسشی را مطرح میکند: در جهانی که هوش مصنوعی نقشی محوری ایفا میکند، چه چیزی انسان را از غیرانسان متمایز میکند؟ در جایی دیگر از این کتاب، نگرانیهایی بیان میشود که بهدرستی از مخاطرات هوش مصنوعی خواهد بود. مواردی مانند نظارت و حریم خصوصی (استفاده گسترده از هوش مصنوعی در نظارت میتواند به نقض حریم خصوصی افراد منجر شود)، تصمیمگیری خودکار (تصمیمگیریهای خودکار توسط هوش مصنوعی ممکن است بدون درنظرگرفتن جنبههای انسانی و اخلاقی انجام شود)، تبعیض و بیعدالتی (الگوریتمهای هوش مصنوعی ممکن است به دلیل دادههای نادرست یا تعصبات موجود در دادهها، تصمیمات تبعیضآمیز بگیرند).
هوش مصنوعی میتواند به افزایش خشونت و بیثباتی منجر شود
رحمتی گفت: جنگ و امنیت یکی دیگر از این موارد است؛ استفاده از هوش مصنوعی در جنگ و امنیت میتواند به افزایش خشونت و بیثباتی منجر شود. بهتازگی نیز مشاهده کردیم که سفرای ۶۰کشور در کره جنوبی گردهم آمدند و توافقنامهای امضا کردند که از گسترش هوش مصنوعی در صنایع حساس نظامی و اطلاعاتی تا حدی جلوگیری شود.مدیرعامل گروه رسانهای مهر با اشاره به چالشهای استفاده از هوش مصنوعی در صنعت رسانه گفت: شفافیت الگوریتمی یکی از این چالشها به شمار میرود. سیستمهای هوش مصنوعی اغلب مانند یک «جعبه سیاه» عمل میکنند، به این معنی که حتی متخصصان نیز همیشه نمیفهمند که چگونه به تصمیمات خاصی میرسند. این نبود شفافیت میتواند اعتماد مردم به هوش مصنوعی را کاهش دهد، بهویژه زمانی که برای ارائه اخبار یا اطلاعات استفاده میشود.وی افزود: تعصب و تبعیض از دیگر چالشهای ممکن است. سیستمهای هوش مصنوعی از دادهها یاد میگیرند و اگر این دادهها دارای تعصبات باشند، هوش مصنوعی میتواند این تعصبات را منعکس کرده و حتی تقویت کند. بهعنوانمثال، سیستمهای هوش مصنوعی ممکن است به طور ناخودآگاه تعصبات نژادی، جنسیتی یا سیاسی را در محتوایی که تولید میکنند، گسترش دهند. این میتواند به نتایج ناعادلانه و مضر منجر شود.
هوش مصنوعی میتواند مقالات خبری را بهسرعت ایجاد کند
رحمتی گفت: مسائل حریم خصوصی از دیگر چالشهای موجود استفاده از هوش مصنوعی در صنعت رسانه به شمار میرود. سیستمهای هوش مصنوعی اغلب دادههای شخصی زیادی را جمعآوری و تحلیل میکنند. درحالیکه این میتواند به شرکتهای رسانهای کمک کند محتوای شخصیسازیشدهتری ارائه دهند، اما همچنین نگرانیهای حریم خصوصی را به همراه دارد. شرکتها باید بسیار مراقب باشند که چگونه از این دادهها استفاده میکنند تا از نقض حقوق حریم خصوصی افراد جلوگیری کنند. هوش مصنوعی میتواند مقالات خبری را بهسرعت ایجاد کند، اما این لزوما به این معنی نیست که اطلاعات قابلاعتماد هستند. مردم ممکن است شروع به شککردن در مورد اعتبار اخبار کنند اگر بدانند که این اخبار توسط یک ماشین تولید شدهاند نه یک روزنامهنگار انسانی. با افزایش نقش هوش مصنوعی در انجام وظایف بیشتر، خطر این وجود دارد که ما بیش از حد به آن متکی شویم و تفکر انتقادی، خلاقیت و تحلیلهای انسانی که روزنامهنگاران ارائه میدهند را از دست بدهیم. این میتواند منجر به کاهش کیفیت کلی رسانهها شود. سیستمهای هوش مصنوعی، اگر بهدقت نظارت نشوند، میتوانند بهسرعت اطلاعات نادرست را پخش کنند، بهویژه در زمان بحرانها. این میتواند پیامدهای خطرناکی داشته باشد، مانند ایجاد وحشت یا سردرگمی در میان مردم. اگر یک سیستم هوش مصنوعی اشتباه کند، مانند انتشار اخبار جعلی یا محتوای تبعیضآمیز، چه کسی مسئول است؟ شرکت توسعهدهنده هوش مصنوعی، رسانه، یا شخص دیگری؟ مدیرعامل گروه رسانهای مهر اظهار داشت: سازمانهای رسانهای ممکن است از هوش مصنوعی برای ایجاد محتوایی استفاده کنند که بهمنظور تاثیرگذاری یا دستکاری افکار عمومی طراحی شده است که میتواند دموکراسی و اعتماد عمومی را تضعیف کند. با درنظرگرفتن تمام این چالشها، سوال بزرگ این است که: چه کاری میتوانیم انجام دهیم تا نگرانیهای اخلاقی هوش مصنوعی در رسانهها را برطرف کنیم؟
مدیرعامل گروه رسانهای مهر گفت: ما این فرصت را داریم که به عنوان یک جامعه جهانی، و بهویژه در چهارچوب سازمان خبرگزاریهای آسیا و اقیانوسیه (اوآنا)، نقش مهمی ایفا کنیم در تعریف و ایجاد راهنماهای اخلاقی. ضروری است که قوانین و مقررات واضحی برای نحوه استفاده اخلاقی از هوش مصنوعی در رسانهها وضع کنیم.