اخبار فرهنگی

هوش مصنوعی پتانسیل عظیمی برای تحول صنعت رسانه دارد

خبرگزاری مهر

به گزارش خبرنگار مهر، محمدمهدی رحمتی، مدیرعامل گروه رسانه‌ای مهر در پنجاه و سومین نشست هیئت اجرایی اوآنا (سازمان خبرگزاری‌های آسیا و اقیانوسیه) با موضوع چالش‌های اخلاقی استفاده از هوش مصنوعی در صنعت رسانه – راهکارهای جهانی به ایراد سخنرانی پرداخت.

در ابتدا رحمتی گفت: خوشحالم که دوباره به بهانه نشست‌های OANA دور یکدیگر جمع شده‌ایم و می‌توانیم در مورد موضوعات و چالش‌هایی که به عنوان مدیران خبرگزاری کشورهای‌مان با آن مواجه هستیم، صحبت کنیم. حال در این دوره از نشست های‌مان که قرار است بیشتر در مورد هوش مصنوعی صحبت کنیم، من نیز فرصت را مغتنم دانستم تا در مورد این موضوع جالب و چالش برانگیز، مقداری با شما صحبت کنم و نقطه نظرات خود را با شما به اشتراک بگذارم.

وی ادامه داد: به عنوان مقدمه بحث، بیایید با یک داستان شروع کنیم که ممکن است برای برخی از شما آشنا باشد. در سال ۲۰۱۶، مایکروسافت یک چت‌بات به نام TAY را معرفی کرد. ایده پشت TAY ساده بود؛ این چت‌بات قرار بود از طریق تعامل با کاربران در توئیتر یاد بگیرد و هر چه بیشتر با افراد صحبت کند، در مکالمه‌ها بهتر شود. در BIO آن نیز نوشته شده بود؛ هرچه بیشتر با TAY صحبت کنید، باهوش‌تر می‌شود.” اما اتفاقات بر اساس برنامه پیش نرفتند. تنها در عرض ۱۶ ساعت، مایکروسافت مجبور شد TAY را متوقف کند زیرا این چت‌بات شروع به ارسال پیام‌های نژادپرستانه و توهین‌آمیز کرد. TAY این پیام‌ها را از تعاملات کاربران یاد گرفته بود که این آزمایش را به یک فاجعه کامل تبدیل کرد.

مدیرعامل گروه رسانه‌ای مهر گفت: این مثال به ما نشان می‌دهد که وقتی هوش مصنوعی به درستی هدایت نشود، می‌تواند به سرعت منجر به مشکلات اخلاقی شود که به جامعه آسیب می‌زند.

ظهور فناوری دیپ‌فیک امر نگران کننده‌ای است

وی افزود: مورد دیگری که نگران‌کننده است، ظهور فناوری دیپ‌فیک است. هر کدام از ما به نحوی در کشور خود با این مشکل روبرو هستیم. به طور مثال، چندی پیش مصاحبه یک پزشک متخصص که در گذشته از نمایندگان مجلس ایران نیز بوده است، در مورد سلامت رهبر در شبکه‌های اجتماعی منتشر شد. این پزشک متخصص در این ویدئو اعلام می‌کند که رهبر معظم انقلاب سلامتی شأن در خطر است و علائمی دارند که نشان دهنده عود بیماری‌های گذشته او است. این مصاحبه نیز دیپ فیک بود و اساساً چنین حرفی درست نبود و گفته نیز نشد.

رحمتی گفت: در موردی دیگر، می‌خواهم برای شما یک ویدئو به نمایش بگذارم که طنز و جالب است. با استفاده از دیپ فیک، جنیفر لوپز در یک سریال قدیمی و محبوب ایران، به نام «خانه به دوش» که با حجاب حضور یافته است و به جای یکی از بازیگران آن، دیالوگ می‌گوید.

وی افزود: حال این سوال برای ما وجود دارد که اصلاً این هوش مصنوعی چیست و چگونه در رسانه‌ها استفاده می‌شود؟ هوش مصنوعی به استفاده از سیستم‌های کامپیوتری و الگوریتم‌ها برای انجام وظایفی اشاره دارد که معمولاً نیاز به هوش انسانی دارند.

مدیرعامل گروه رسانه‌ای مهر گفت: در صنعت رسانه، هوش مصنوعی به طور فزاینده‌ای رایج شده است و کاربردهایی دارد که می‌توان به تشخیص اخبار جعلی، شخصی‌سازی محتوای برای خوانندگان، مدیریت شبکه‌های اجتماعی، هدف‌گذاری تبلیغات و بهینه‌سازی نحوه جستجو و یافتن محتوا اشاره کرد.

وی ادامه داد: اگرچه این‌ها کاربردهای مفیدی هستند، اما همچنین باید از چالش‌ها و خطرات مرتبط با استفاده از هوش مصنوعی، به ویژه از نظر اخلاقی، آگاه باشیم.

رحمتی با اشاره نقل قولی از هنری کیسینجر گفت: کیسینجر در کتاب «هوش مصنوعی و آینده بشریت» که با کمک همکاران خود نوشته است، می‌گوید: هوش مصنوعی نه تنها ظرفیت پردازش و تحلیل داده‌ها را به شکلی بی‌سابقه گسترش می‌دهد، بلکه به‌طور بنیادین چالش‌هایی را در نحوه تصمیم‌گیری انسان‌ها، درک ما از جهان و حتی تعریف ما از مفهوم انسان بودن ایجاد می‌کند؛ این فناوری به ما نشان می‌دهد که قدرت خلاقیت، تجربه و قضاوت انسانی ممکن است نیاز به بازتعریف داشته باشد، چرا که ماشین‌ها در انجام وظایفی که پیشتر منحصراً برای انسان‌ها بود، از ما پیشی می‌گیرند. این امر پرسشی را مطرح می‌کند: در جهانی که هوش مصنوعی نقشی محوری ایفا می‌کند، چه چیزی انسان را از غیرانسان متمایز می‌کند؟.

وی افزود: در جایی دیگر از این کتاب، نگرانی‌هایی بیان می‌شود که به درستی از مخاطرات هوش مصنوعی خواهد بود. مواردی مانند نظارت و حریم خصوصی (استفاده گسترده از هوش مصنوعی در نظارت می‌تواند به نقض حریم خصوصی افراد منجر شود)، تصمیم‌گیری خودکار (تصمیم‌گیری‌های خودکار توسط هوش مصنوعی ممکن است بدون در نظر گرفتن جنبه‌های انسانی و اخلاقی انجام شود)، تبعیض و بی‌عدالتی (الگوریتم‌های هوش مصنوعی ممکن است به دلیل داده‌های نادرست یا تعصبات موجود در داده‌ها، تصمیمات تبعیض‌آمیز بگیرند).

استفاده از هوش مصنوعی در جنگ و امنیت می‌تواند به افزایش خشونت و بی‌ثباتی منجر شود

رحمتی گفت: جنگ و امنیت یکی دیگر از این موارد است؛ استفاده از هوش مصنوعی در جنگ و امنیت می‌تواند به افزایش خشونت و بی‌ثباتی منجر شود. به تازگی نیز مشاهده کردیم که سفرای ۶۰ کشور در کره جنوبی گردهم آمدند و توافقنامه‌ای امضا کردند که از گسترش هوش مصنوعی در صنایع حساس نظامی و اطلاعاتی تا حدی جلوگیری شود تا از این طریق شاهد خطای هوش مصنوعی نباشیم.

وی افزود: برخی از دانشمندان معاصر نیز فلسفه و موجودیت هوش مصنوعی را از اساس نادرست و شیطانی می‌دانند. به طور مثال الکساندر دوگین، دانشمند حوزه علوم سیاسی که از قضا اهل روسیه نیز می‌باشد، در یکی از دیدارهای خود با یکی از روحانیون دانشمند ایرانی، آیت الله میرباقری گفته است: مدرنیته، که شامل فناوری‌های پیشرفته‌ای همچون هوش مصنوعی است، برای من یک ایدئولوژی ناقص و شیطانی است. این فناوری‌ها می‌توانند به نابودی سنت‌ها و ارزش‌های انسانی منجر شوند.

مدیرعامل گروه رسانه‌ای مهر با اشاره به صحبت‌های «دوگین» گفت: صحبت‌های دوگین برای ما اهالی فرهنگ و رسانه، زنگ خطری را به صدا در می‌آورد: خطر نابودی سنت‌ها و ارزش‌های انسانی! این مورد نیز در جای خود بحث مفصلی دارد که وقت پرداختن به آن وجود ندارد.

وی ادامه داد: حال که چند مثال از اشتباهات هوش مصنوعی را بررسی کردیم، بیایید به برخی از مسائل اخلاقی که هنگام استفاده از هوش مصنوعی در صنعت رسانه‌ها مطرح می‌شود که اتفاقاً برای ما ایجاد چالش‌هایی جدی می‌کند.

مدیرعامل گروه رسانه‌ای مهر با اشاره به چالش‌های استفاده از هوش مصنوعی در صنعت رسانه گفت: شفافیت الگوریتمی یکی از این چالش‌ها به شمار می‌رود. سیستم‌های هوش مصنوعی اغلب مانند یک “جعبه سیاه” عمل می‌کنند، به این معنی که حتی متخصصان نیز همیشه نمی‌فهمند که چگونه به تصمیمات خاصی می‌رسند. این نبود شفافیت می‌تواند اعتماد مردم به هوش مصنوعی را کاهش دهد، به ویژه زمانی که برای ارائه اخبار یا اطلاعات استفاده می‌شود.

وی افزود: تعصب و تبعیض از دیگر چالش‌های ممکن است. سیستم‌های هوش مصنوعی از داده‌ها یاد می‌گیرند و اگر این داده‌ها دارای تعصبات باشند، هوش مصنوعی می‌تواند این تعصبات را منعکس کرده و حتی تقویت کند. به عنوان مثال، سیستم‌های هوش مصنوعی ممکن است به طور ناخودآگاه تعصبات نژادی، جنسیتی یا سیاسی را در محتوایی که تولید می‌کنند، گسترش دهند. این می‌تواند به نتایج ناعادلانه و مضر منجر شود.

هوش مصنوعی می‌تواند مقالات خبری را به سرعت ایجاد کند

رحمتی گفت: مسائل حریم خصوصی از دیگر چالش‌های موجود استفاده از هوش مصنوعی در صنعت رسانه به شمار می‌رود. سیستم‌های هوش مصنوعی اغلب داده‌های شخصی زیادی را جمع‌آوری و تحلیل می‌کنند. در حالی که این می‌تواند به شرکت‌های رسانه‌ای کمک کند محتوای شخصی‌سازی شده‌تری ارائه دهند، اما همچنین نگرانی‌های حریم خصوصی را به همراه دارد. شرکت‌ها باید بسیار مراقب باشند که چگونه از این داده‌ها استفاده می‌کنند تا از نقض حقوق حریم خصوصی افراد جلوگیری کنند.

وی با اشاره به اعتماد به اخبار تولید شده توسط هوش مصنوعی گفت: هوش مصنوعی می‌تواند مقالات خبری را به سرعت ایجاد کند، اما این لزوماً به این معنی نیست که اطلاعات قابل اعتماد هستند. مردم ممکن است شروع به شک کردن در مورد اعتبار اخبار کنند اگر بدانند که این اخبار توسط یک ماشین تولید شده‌اند نه یک روزنامه‌نگار انسانی.

مدیرعامل گروه رسانه‌ای مهر با اشاره به اتکای بیش از حد به هوش مصنوعی گفت: با افزایش نقش هوش مصنوعی در انجام وظایف بیشتر، خطر این وجود دارد که ما بیش از حد به آن متکی شویم و تفکر انتقادی، خلاقیت و تحلیل‌های انسانی که روزنامه‌نگاران ارائه می‌دهند را از دست بدهیم. این می‌تواند منجر به کاهش کیفیت کلی رسانه‌ها شود.

وی با اشاره به پخش اطلاعات نادرست گفت: سیستم‌های هوش مصنوعی، اگر به دقت نظارت نشوند، می‌توانند به سرعت اطلاعات نادرست را پخش کنند، به ویژه در زمان بحران‌ها. این می‌تواند پیامدهای خطرناکی داشته باشد، مانند ایجاد وحشت یا سردرگمی در میان مردم.

رحمتی با اشاره به مسائل حقوقی و مسئولیت‌پذیری گفت: اگر یک سیستم هوش مصنوعی اشتباه کند، مانند انتشار اخبار جعلی یا محتوای تبعیض‌آمیز، چه کسی مسئول است؟ شرکت توسعه‌دهنده هوش مصنوعی، رسانه، یا شخص دیگری؟ در حال حاضر چارچوب‌های قانونی روشنی برای پاسخ به این سوالات وجود ندارد.

وی با اشاره به از دست دادن شغل‌ها گفت: با اینکه هوش مصنوعی وظایف بیشتری را در صنعت رسانه‌ها بر عهده می‌گیرد، ترس از از دست دادن بسیاری از مشاغل، به ویژه برای روزنامه‌نگاران و تولیدکنندگان محتوا وجود دارد. این می‌تواند تنوع دیدگاه‌ها در رسانه‌ها و کیفیت محتوای تولید شده را تحت تأثیر قرار دهد.

مدیرعامل گروه رسانه‌ای مهر به موضوع تأثیرگذاری بر افکار عمومی اشاره کرد و گفت: سازمان‌های رسانه‌ای ممکن است از هوش مصنوعی برای ایجاد محتوایی استفاده کنند که به منظور تأثیرگذاری یا دستکاری افکار عمومی طراحی شده است، که می‌تواند دموکراسی و اعتماد عمومی را تضعیف کند.

وی با اشاره به راهکارها و نقش همکاری‌های بین‌المللی گفت: با در نظر گرفتن تمام این چالش‌ها، سوال بزرگ این است که: چه کاری می‌توانیم انجام دهیم تا نگرانی‌های اخلاقی هوش مصنوعی در رسانه‌ها را برطرف کنیم؟

مدیرعامل گروه رسانه‌ای مهرگفت: ما این فرصت را داریم که به عنوان یک جامعه جهانی، و به ویژه در چارچوب سازمان خبرگزاری‌های آسیا و اقیانوسیه (اوآنا)، نقش مهمی ایفا کنیم در تعریف و ایجاد راهنماهای اخلاقی.

وی با اشاره به ایجاد راهنماهای اخلاقی جهانی گفت: ضروری است که قوانین و مقررات واضحی برای نحوه استفاده اخلاقی از هوش مصنوعی در رسانه‌ها وضع کنیم. اوآنا می‌تواند به خبرگزاری‌های عضو خود کمک کند تا دانش و بهترین روش‌ها را به اشتراک بگذارند تا اطمینان حاصل شود که هوش مصنوعی به طور مسئولانه و شفاف استفاده می‌شود.

اوآنا می‌تواند بستری برای تدوین سیاست‌های مشترک میان خبرگزاری‌ها فراهم کند

رحمتی به آموزش حرفه‌ای‌های رسانه‌ای اشاره کرد و گفت: روزنامه‌نگاران، ویراستاران و سایر حرفه‌ای‌های رسانه‌ای نیاز به آموزش در مورد نحوه استفاده اخلاقی از هوش مصنوعی دارند. اوآنا می‌تواند نقش پیشرو در سازماندهی کارگاه‌ها و جلسات آموزشی در کشورهای عضو ایفا کند تا آگاهی در مورد استفاده مسئولانه از هوش مصنوعی افزایش یابد.

وی با اشاره به نظارت بر سیستم‌های هوش مصنوعی گفت: ما نیاز به سیستم‌هایی داریم که به طور مداوم هوش مصنوعی را برای شناسایی تعصبات یا اشتباهات ممکن نظارت کنند. این نوع نظارت بین‌المللی، با حمایت اوآنا، می‌تواند به اطمینان از دقت و انصاف این سیستم‌ها کمک کند.

رحمتی به تدوین سیاست‌های مشترک اشاره کرد و گفت: اوآنا می‌تواند بستری برای تدوین سیاست‌های مشترک میان خبرگزاری‌ها فراهم کند تا استفاده اخلاقی از هوش مصنوعی در رسانه‌ها ترویج شود. با همکاری یکدیگر، می‌توانیم محیطی رسانه‌ای ایجاد کنیم که در آن هوش مصنوعی به بهبود کیفیت، اعتماد و مسئولیت‌پذیری کمک کند.

وی افزود: هوش مصنوعی پتانسیل عظیمی برای تحول صنعت رسانه دارد و آن را کارآمدتر و پاسخگوتر به نیازهای مخاطبان می‌کند. اما همانطور که دیدیم، همچنین با خطرات جدی، به ویژه از نظر اخلاقی، همراه است. به همین دلیل همکاری‌های بین‌المللی بسیار مهم است. با همکاری از طریق پلتفرم‌هایی مانند اوآنا، می‌توانیم قوانین و سیستم‌های لازم را برای اطمینان از استفاده مسئولانه از هوش مصنوعی توسعه دهیم، که هم صنعت رسانه و هم عموم مردم را محافظت می‌کند.

رحمتی گفت: ما با همکاری یکدیگر، حتماً می‌توانیم گام‌های مهم و قابل توجهی در راستای غلبه بر مخاطرات جدی هوش مصنوعی برداریم. از این روست که من تاکید بر همکاری‌های نزدیک مانند انتقال تجربه، وضع قوانین تنظیم گر ناظر به هوش مصنوعی و همچنین برگزاری دوره‌های آموزشی مشترک بین خبرگزاری‌ها می‌کنم، چرا که با همکاری یکدیگر حتماً می‌توانیم خیلی بهتر Newsroom های خود را در جهت آگاهی بیشتر نسبت به هوش مصنوعی و راه‌های استفاده اخلاق مدارانه از آن سوق دهیم.

وی افزود: در پایان می‌خواهم همانند اجلاس قبل، یاد مردم مظلوم غزه را گرامی بدارم. مردمی که تحت شدیدترین حملات غیرانسانی و نسل کشی، مقاومت خود را ادامه می‌دهند و به روزهای آزادی و صلح هنوز امیدوارند. ما غزه را فراموش نمی‌کنیم.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا