محمدمهدی رحمتی، مدیرعامل گروه رسانه‌ای مهر در پنجاه و سومین نشست هیات اجرایی اوآنا (سازمان خبرگزاری‌های آسیا و اقیانوسیه) با موضوع چالش‌های اخلاقی استفاده از هوش مصنوعی در صنعت رسانه – راهکارهای جهانی به ایراد سخنرانی پرداخت.

پتانسیل عظیم هوش مصنوعی برای تحول صنعت رسانه

آگاه: رحمتی در این نشست گفت: در سال ۲۰۱۶، مایکروسافت یک چت‌بات به نام TAY را معرفی کرد. ایده پشت TAY ساده بود؛ این چت‌بات قرار بود از طریق تعامل با کاربران در توییتر یاد بگیرد و هر چه بیشتر با افراد صحبت کند، در مکالمه‌ها بهتر شود. در BIO آن نیز نوشته شده بود؛ هرچه بیشتر با TAY صحبت کنید، باهوش‌تر می‌شود. اما اتفاقات طبق برنامه پیش نرفتند. تنها در عرض ۱۶ساعت، مایکروسافت مجبور شد TAY را متوقف کند زیرا این چت‌بات شروع به ارسال پیام‌های نژادپرستانه و توهین‌آمیز کرد. TAY این پیام‌ها را از تعاملات کاربران یاد گرفته بود و این آزمایش به یک فاجعه کامل تبدیل شد. این مثال به ما نشان می‌دهد که وقتی هوش مصنوعی به‌درستی هدایت نشود، می‌تواند به‌سرعت منجر به مشکلات اخلاقی شود که به جامعه آسیب می‌زند.

ظهور فناوری دیپ‌فیک امر نگران‌کننده‌ای است
وی افزود: مورد دیگری که نگران‌کننده است، ظهور فناوری دیپ‌فیک است. هر کدام از ما به نحوی در کشور خود با این مشکل روبرو هستیم. به طور مثال، چندی پیش مصاحبه یک پزشک متخصص که در گذشته از نمایندگان مجلس ایران نیز بوده است، در مورد سلامت رهبر در شبکه‌های اجتماعی منتشر شد. این پزشک متخصص در این ویدئو اعلام می‌کند که رهبر انقلاب سلامتی‌شان در خطر است و علائمی دارند که نشان‌دهنده عود بیماری‌های گذشته ایشان است. این مصاحبه دیپ‌فیک بود و اساسا چنین حرفی درست نبود. حال این سوال برای ما وجود دارد که اصلا این هوش مصنوعی چیست و چگونه در رسانه‌ها استفاده می‌شود؟ هوش مصنوعی به استفاده از سیستم‌های کامپیوتری و الگوریتم‌ها برای انجام وظایفی اشاره دارد که معمولا به هوش انسانی نیاز دارند. در صنعت رسانه، هوش مصنوعی به‌طور فزاینده‌ای رایج شده است و کاربردهایی دارد که می‌توان به تشخیص اخبار جعلی، شخصی‌سازی محتوای برای خوانندگان، مدیریت شبکه‌های اجتماعی، هدف‌گذاری تبلیغات و بهینه‌سازی نحوه جستجو و یافتن محتوا اشاره کرد.
کیسینجر در کتاب «هوش مصنوعی و آینده بشریت» که با کمک همکاران خود نوشته است، می‌گوید: هوش مصنوعی نه‌تنها ظرفیت پردازش و تحلیل داده‌ها را به شکلی بی‌سابقه گسترش می‌دهد، بلکه به‌طور بنیادین چالش‌هایی را در نحوه تصمیم‌گیری انسان‌ها، درک ما از جهان و حتی تعریف ما از مفهوم انسان بودن ایجاد می‌کند؛ این فناوری به ما نشان می‌دهد که قدرت خلاقیت، تجربه و قضاوت انسانی ممکن است به بازتعریف نیاز داشته باشد، چرا که ماشین‌ها در انجام وظایفی که پیش‌تر منحصرا برای انسان‌ها بود، از ما پیشی می‌گیرند. این امر پرسشی را مطرح می‌کند: در جهانی که هوش مصنوعی نقشی محوری ایفا می‌کند، چه چیزی انسان را از غیرانسان متمایز می‌کند؟ در جایی دیگر از این کتاب، نگرانی‌هایی بیان می‌شود که به‌درستی از مخاطرات هوش مصنوعی خواهد بود. مواردی مانند نظارت و حریم خصوصی (استفاده گسترده از هوش مصنوعی در نظارت می‌تواند به نقض حریم خصوصی افراد منجر شود)، تصمیم‌گیری خودکار (تصمیم‌گیری‌های خودکار توسط هوش مصنوعی ممکن است بدون درنظرگرفتن جنبه‌های انسانی و اخلاقی انجام شود)، تبعیض و بی‌عدالتی (الگوریتم‌های هوش مصنوعی ممکن است به دلیل داده‌های نادرست یا تعصبات موجود در داده‌ها، تصمیمات تبعیض‌آمیز بگیرند).

هوش مصنوعی می‌تواند به افزایش خشونت و بی‌ثباتی منجر شود
رحمتی گفت: جنگ و امنیت یکی دیگر از این موارد است؛ استفاده از هوش مصنوعی در جنگ و امنیت می‌تواند به افزایش خشونت و بی‌ثباتی منجر شود. به‌تازگی نیز مشاهده کردیم که سفرای ۶۰کشور در کره جنوبی گردهم آمدند و توافقنامه‌ای امضا کردند که از گسترش هوش مصنوعی در صنایع حساس نظامی و اطلاعاتی تا حدی جلوگیری شود.مدیرعامل گروه رسانه‌ای مهر با اشاره به چالش‌های استفاده از هوش مصنوعی در صنعت رسانه گفت: شفافیت الگوریتمی یکی از این چالش‌ها به شمار می‌رود. سیستم‌های هوش مصنوعی اغلب مانند یک «جعبه سیاه» عمل می‌کنند، به این معنی که حتی متخصصان نیز همیشه نمی‌فهمند که چگونه به تصمیمات خاصی می‌رسند. این نبود شفافیت می‌تواند اعتماد مردم به هوش مصنوعی را کاهش دهد، به‌ویژه زمانی که برای ارائه اخبار یا اطلاعات استفاده می‌شود.وی افزود: تعصب و تبعیض از دیگر چالش‌های ممکن است. سیستم‌های هوش مصنوعی از داده‌ها یاد می‌گیرند و اگر این داده‌ها دارای تعصبات باشند، هوش مصنوعی می‌تواند این تعصبات را منعکس کرده و حتی تقویت کند. به‌عنوان‌مثال، سیستم‌های هوش مصنوعی ممکن است به طور ناخودآگاه تعصبات نژادی، جنسیتی یا سیاسی را در محتوایی که تولید می‌کنند، گسترش دهند. این می‌تواند به نتایج ناعادلانه و مضر منجر شود.

هوش مصنوعی می‌تواند مقالات خبری را به‌سرعت ایجاد کند
رحمتی گفت: مسائل حریم خصوصی از دیگر چالش‌های موجود استفاده از هوش مصنوعی در صنعت رسانه به شمار می‌رود. سیستم‌های هوش مصنوعی اغلب داده‌های شخصی زیادی را جمع‌آوری و تحلیل می‌کنند. درحالی‌که این می‌تواند به شرکت‌های رسانه‌ای کمک کند محتوای شخصی‌سازی‌شده‌تری ارائه دهند، اما همچنین نگرانی‌های حریم خصوصی را به همراه دارد. شرکت‌ها باید بسیار مراقب باشند که چگونه از این داده‌ها استفاده می‌کنند تا از نقض حقوق حریم خصوصی افراد جلوگیری کنند. هوش مصنوعی می‌تواند مقالات خبری را به‌سرعت ایجاد کند، اما این لزوما به این معنی نیست که اطلاعات قابل‌اعتماد هستند. مردم ممکن است شروع به شک‌کردن در مورد اعتبار اخبار کنند اگر بدانند که این اخبار توسط یک ماشین تولید شده‌اند نه یک روزنامه‌نگار انسانی. با افزایش نقش هوش مصنوعی در انجام وظایف بیشتر، خطر این وجود دارد که ما بیش از حد به آن متکی شویم و تفکر انتقادی، خلاقیت و تحلیل‌های انسانی که روزنامه‌نگاران ارائه می‌دهند را از دست بدهیم. این می‌تواند منجر به کاهش کیفیت کلی رسانه‌ها شود. سیستم‌های هوش مصنوعی، اگر به‌دقت نظارت نشوند، می‌توانند به‌سرعت اطلاعات نادرست را پخش کنند، به‌ویژه در زمان بحران‌ها. این می‌تواند پیامدهای خطرناکی داشته باشد، مانند ایجاد وحشت یا سردرگمی در میان مردم. اگر یک سیستم هوش مصنوعی اشتباه کند، مانند انتشار اخبار جعلی یا محتوای تبعیض‌آمیز، چه کسی مسئول است؟ شرکت توسعه‌دهنده هوش مصنوعی، رسانه، یا شخص دیگری؟ مدیرعامل گروه رسانه‌ای مهر اظهار داشت: سازمان‌های رسانه‌ای ممکن است از هوش مصنوعی برای ایجاد محتوایی استفاده کنند که به‌منظور تاثیرگذاری یا دستکاری افکار عمومی طراحی شده است که می‌تواند دموکراسی و اعتماد عمومی را تضعیف کند. با درنظرگرفتن تمام این چالش‌ها، سوال بزرگ این است که: چه کاری می‌توانیم انجام دهیم تا نگرانی‌های اخلاقی هوش مصنوعی در رسانه‌ها را برطرف کنیم؟
مدیرعامل گروه رسانه‌ای مهر گفت: ما این فرصت را داریم که به عنوان یک جامعه جهانی، و به‌ویژه در چهارچوب سازمان خبرگزاری‌های آسیا و اقیانوسیه (اوآنا)، نقش مهمی ایفا کنیم در تعریف و ایجاد راهنماهای اخلاقی. ضروری است که قوانین و مقررات واضحی برای نحوه استفاده اخلاقی از هوش مصنوعی در رسانه‌ها وضع کنیم.

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.