اخبار سیاسی

آینده هوش مصنوعی در ایران/ تقویت هویت ملی یا بحران فرهنگی؟

رئیس انجمن هوش مصنوعی گفت: فناوری‌ها، از یک سو خدمات هوشمند را تسهیل کرده و به بهبود کارایی زندگی کمک می‌کنند، اما از سوی دیگر نگرانی‌های جدی درباره حریم خصوصی و کنترل داده‌ها به وجود آورده‌اند.

خبرگزاری تسنیم

گروه دانشگاه خبرگزاری تسنیم-زینب امیدی: با گسترش روزافزون فناوری‌های نوین همچون اینترنت اشیا و هوش مصنوعی، جامعه بشری در معرض تغییرات چشمگیری قرار گرفته است. میلیاردها دستگاه متصل به اینترنت، از لوازم خانگی هوشمند گرفته تا ابزارهای پوشیدنی، به صورت پیوسته در حال جمع‌آوری و انتقال داده‌های شخصی افراد هستند. این تغییرات علاوه بر تسهیل در زندگی روزمره، نگرانی‌های جدی در خصوص حریم خصوصی و تأثیرات عمیق‌تر بر رفتارهای انسانی و حتی باورهای فرهنگی و دینی ایجاد کرده‌اند.

محمدهادی زاهدی مدیرکل فناوری اطلاعات و امنیت فضای مجازی وزارت علوم و رئیس انجمن هوش مصنوعی در بخش دوم گفت‌وگوی خود با خبرگزاری تسنیم، به بررسی این مسائل پرداخته و هشدار می‌دهد که با تحلیل و بهره‌برداری از داده‌های انبوه، الگوهای رفتاری افراد و جوامع به شکلی نامحسوس تحت تأثیر قرار می‌گیرند. او این روند را نوعی «استعمار دیجیتال» می‌داند که نه تنها استقلال فکری را به مخاطره می‌اندازد، بلکه ارزش‌های فرهنگی را نیز به چالش می‌کشد. در ادامه، به راهکارهای مقابله با این چالش‌ها و اهمیت ارتقاء سواد عمومی و تنظیم‌گری فناوری خواهیم پرداخت.

تسنیم: شما اشاره کردید که میلیاردها شیء در بستر اینترنت به هم متصل هستند و در حال تبادل داده هستند. این موضوع چگونه بر زندگی روزمره و حفظ حریم خصوصی افراد تأثیر می‌گذارد؟

اینترنت اشیا: زندگی روزمره در معرض خطرات جدید

زاهدی: امروز شاهد گسترش فناوری “اینترنت اشیا” هستیم که در آن میلیاردها دستگاه، از ساعت‌های هوشمند گرفته تا لوازم خانگی هوشمند همچون لباسشویی‌ها، ظرفشویی ویخچال‌ها و حتی خودروها، حلقه‌های هوشمند، قفل‌های هوشمند، فبلت‌ها و تبلت‌ها، ساعت‌های هوشمند به اینترنت متصل‌اند و داده‌های متنوع و فراوانی تبادل می‌کنند. این دستگاه‌ها قادرند داده‌های بسیاری همچون موقعیت مکانی، وضعیت سلامت، رفتارهای روزمره و حتی تعاملات اجتماعی و فعالیت‌ها در شبکه‌های اجتماعی افراد را ثبت و منتقل کنند.

این حجم از اطلاعات می‌تواند به طرز نگران‌کننده‌ای در اختیار شرکت‌های تولید کننده این ابزار و یا شرکت‌های ارائه دهنده خدمات ارتباطی (اینترنت) قرار گیرد که از کنترل و نظارت بر آنها بی اطلاع باشیم. زمانی که یک ساعت هوشمند به دست می زنیم، این امکان وجود دارد که اطلاعاتی از جمله موقعیت مکانی، وضعیت جسمی، و حتی ساعات خواب و بیداری و دیدارها و ملاقات‌های روزانه را به شرکت‌های سازنده یا اپلیکیشن‌های مختلف ارسال نماید. اگر این اطلاعات بدون نظارت و تنظیم‌گری قانونی مناسب جمع‌آوری، استفاده و ارسال شود، حریم خصوصی افراد عملاً نقض می‌شود.

تسنیم: به نظر شما این خطرات چگونه می‌توانند تأثیرات عمیق‌تری بر جامعه و رفتارهای انسانی داشته باشند؟

زاهدی: تأثیرات این فناوری‌ها تنها به جمع‌آوری اطلاعات محدود نمی‌شود؛ بلکه مسأله اصلی این است که این اطلاعات می‌توانند مورد تحلیل و استفاده قرار گیرند تا رفتارها و تصمیمات افراد را تحت تأثیر قرار دهند. شرکت‌ها و سازمان‌ها و دولت‌ها می‌توانند با تحلیل داده‌های مربوط به رفتارهای روزمره افراد، به شکلی نامحسوس الگوهای رفتاری را تشخیص دهند و حتی در نهایت به جهت دهی این رفتارها بپردازند. این فرآیند می‌تواند به تدریج سبک زندگی و نگرش‌های افراد و جامعه را به مرور تغییر دهد.

نگرانی‌های حریم خصوصی در دنیای متصل/جامعه بشری در معرض استعمار دیجیتال

در این وضعیت، افراد به مرور به سمت رفتارها و تصمیماتی سوق داده می‌شوند که تحت کنترل و تأثیر بازی‌سازان این زیست بوم قرار گرفته و ناخودآگاه در مسیری قرار خواهند گرفت بدون آنکه خود متوجه آن شوند، رخ می‌دهد. به بیان دیگر، جامعه بشری در معرض نوعی استعمار دیجیتال قراردارد که از همگرایی ابزارهای هوشمند، داده‌ها، فناوری وب و اینترنت و هوش مصنوعی شکل گرفته است و به دنبال استفاده از فناوری‌های نوظهور برای تسلط سیاسی، اقتصادی و اجتماعی بر ملت‌ها است. این غول‌های بزرگ فناوری هستند که روابط تجاری را در سراسر زنجیره کالا کنترل می‌کنند و از دانش و سرمایه انباشته، سود می‌برند.

تسنیم: آیا این فناوری‌ها می‌توانند در بلندمدت بر قدرت تفکر و تحلیل انسان‌ها تأثیر بگذارند؟ 

زاهدی: بله، یکی از بزرگترین نگرانی‌ها این است که همگرایی فناوری‌های مرتبط با هوش مصنوعی و اینترنت، به تدریج قدرت تفکر و تحلیل انتقادی را در انسان‌ها کاهش دهند. ما در عصری زندگی می‌کنیم که هوش مصنوعی با تحلیل داده‌ها و ارائه راهکارهای سریع، بسیاری از فرآیندهای فکری را برای افراد انجام می‌دهد. این خطر وجود دارد که انسان‌ها به موجوداتی صرفاً واکنشی تبدیل شوند که بدون تحلیل و تفکر عمیق به تصمیمات و پیشنهادات هوش مصنوعی اعتماد کنند. این امر می‌تواند نه تنها به کاهش استقلال فکری بشریت منجر شود، بلکه باورهای عمیق فرهنگی و دینی جوامع را نیز تحت تأثیر قرار دهد.

تسلط فناوری‌ها بر تصمیم‌گیری انسان‌ها

همان‌طور که هوش مصنوعی بیشتر بر زندگی انسان مسلط می‌شود، این امکان وجود دارد که به تدریج ارزش‌های اخلاقی و باورهای دینی انسان نیز تحت تأثیر الگوها و پیش‌بینی‌های ماشینی قرار گیرد. چگونه شرکت‌های بزرگ فناوری مانند گوگل، فیس‌بوک و آمازون به نمونه هایی از امپریالیسم دیجیتال پرداخته‌اند، که تاثیرات آن به شکل‌های جدیدی از نابرابری و عدم توازن قدرت منجر شده است. نحوه‌ی انتقال ثروت از کشورهای جنوب جهانی به شمال جهانی و تضعیف زیرساخت‌های محلی و اقتصادهای بومی مورد جلوه هایی از استعمار دیجیتال به‌طور مشهود است و نمی توان أثیرات فرهنگی منفی استعمار دیجیتال و تضعیف فرهنگ‌های محلی را نادیده گرفت.

محمدهادی زاهدی , ستاد توسعه فناوری‌های هوش مصنوعی و رباتیک , هوش مصنوعی ,

تسنیم: به نظر شما، برای مقابله با این چالش‌ها چه راهکارهایی باید در نظر گرفته شود؟

کاهش تفکر انتقادی در عصر هوش مصنوعی

زاهدی: یکی از راهکارهای کلیدی برای مقابله با این چالش‌ها، ارتقاء سطح سواد عمومی در زمینه فناوری و به ویژه هوش مصنوعی است. افراد باید توانایی تفکر انتقادی و تحلیلی را در برابر فناوری‌های جدید تقویت کنند و بی‌چون و چرا به دستورات یا پیشنهادات ارائه شده از سوی دستیار‌های هوشمند و چت بات ها اعتماد نکنند. علاوه بر این، نیاز به تنظیم‌گری دقیق و کارآمد در حوزه فناوری‌های مرتبط با هوش مصنوعی وجود دارد. دولت‌ها باید با وضع قوانین مناسب، حفظ حریم خصوصی افراد را تضمین کنند و اجازه داده نشود که داده و اطلاعات شخصی به راحتی در اختیار شرکت‌ها و این غول‌های فناوری قرار گیرد. همچنین باید بر آموزش عمومی تأکید کرد تا ضمن اینکه افراد از این ابزارهای فناوری‌ها استفاده می‌کنند، مطلع باشند چگونه می‌توانند از آنها به صورت ایمن و آگاهانه بهره برداری کنند.

تسنیم: آیا این ابزارها و فناوری‌ها می‌توانند باورهای دینی و فرهنگی انسان‌ها را هم تحت تأثیر قرار دهند؟

زاهدی: بله، به نظر من این خطر جدی وجود دارد. وقتی فناوری‌ها توانایی تحلیل و هدایت رفتارها را دارند، به تدریج می‌توانند بر تفکرات و باورها هم تأثیر بگذارند. اگر یک فرد دائماً در معرض اطلاعات جهت داری قرار گیرد که به باورهای فکری او خدشه وارد می کند و به صورت مستمر با دریافت محتوایی که تلفیقی از واقعیت و ناحقایق است مواجه شود، در مرور زمان و در خلأ روشنگری، دچار تردید در باورها خواهد شد.

نفوذ فناوری‌ها بر باورهای فرهنگی و دینی/لزوم ورود حوزه‌های علمیه

از این رو، باید به طور جدی به فکر حفاظت از این ابعاد شناختی، روانشناسی و دهنی باشیم. اینجا دقیقاً جایی است که اساتید علوم انسانی، نظریه‌پردازان و حوزه‌های علمیه باید وارد عمل شوند و به تحلیل و ارائه راهکارهای مؤثر بپردازند. اگر این موضوعات به حال خود رها شوند، ممکن است با پیامدهای فرهنگی و اجتماعی گسترده‌ای در آینده نه چندان دور مواجه شویم که قابل بازگشت و جبران نباشد.

تسنیم: مقام معظم رهبری نیز به اهمیت لایه‌های عمیق‌تر این مسائل اشاره کرده‌اند. آیا شما فکر می‌کنید که تأکید ایشان بیشتر بر جنبه‌های نرم‌افزاری است؟

زاهدی: مقام معظم رهبری دقیقا اعلام داشتند لایه های عمیق و متنوع هوش مصنوعی. که یکی از این لایه های متنوع می تواند جنبه‌های نرم‌افزاری و فکری (مغزافزاری) باشد. سوال اساسی این است که با فرض تامین تجهیزات سخت‌افزاری به هر شکلی اعم از واردات یا ساخت (در یک دوره میان مدات و درازمدت)، قصد داریم با هوش مصنوعی به کجا برویم؟ آمریکا با هوش مصنوعی به دنبال تصاحب سرمایه (فکر و ثروت) ملت هاست، چین در یک جنگ سرد فناوری به دنبال رهبری فناوری دنیا و توسعه قلمرو خود و در اختیار گرفتن بخش قابل توجه بازار داده و اطلاعات دنیا از طریق توسعه سکوها است، ژاپن به دنبال حل مسائل جامع خود از جنس بحران پیری و افسردگی و فردگرایی و میل به انزوا است، ما به کدام سمت می‌خواهیم حرکت کنیم؟ مبانی فکری شکل دهنده فناوری در راهبردهای ملی ایران کدام است؟

صرفا استفاده از این فناوری برای انجام برخی تحقیقات و اجرای الگوهای زبانی و پردازش داده‌های محیطی از حوزه سلامت و انرژی تا حوزه مالی و … یا اینکه پشت و عقبه این اقدامات یک تفکر و مبانی نظری است که به دنبال مفاهیمی از جنس عدالت، شفافیت، رفاه جامعه، معنویت و کمال گرایی است؟ اینجا همان نقطه ای است که نیاز به تفکر عمیق و دقیق دارد تا بتوان از درون این چالش‌ها، فرصت های بی بدیل خلق کرد.

تسنیم: شما به تأثیرات گسترده هوش مصنوعی بر ابعاد فرهنگی و اجتماعی اشاره کردید. چگونه می‌توانیم هوش مصنوعی را نه به‌عنوان یک خطر، بلکه به‌عنوان یک فرصت فرهنگی ببینیم؟

ضرورت بومی‌سازی فناوری‌های هوش مصنوعی برای حفظ هویت ملی

زاهدی: هوش مصنوعی در بسیاری از جنبه‌های زندگی ما نفوذ کرده و این نفوذ می‌تواند به ابعاد متنوعی مانند فرهنگی، فلسفی و اجتماعی گسترش یابد. برای اینکه این فناوری را به‌عنوان یک فرصت ببینیم، باید از تاثیر رسانه و شبکه های اجتماعی وراهبرد‌های فرهنگی مطلع بود. در کنار تمرکز بر محصولات فناورانه و بهره بردای از محصولات و خدمات فناوری، باید به مفاهیم عمیق‌تر هوش مصنوعی توجه کنیم و آن را با دیگر حوزه‌های دانشی مانند فلسفه و حکمت و فقه و مبانی معنا و غنی نماییم. این رویکرد کمک می‌کند تا از اثرات مخرب احتمالی جلوگیری شود و هوش مصنوعی به ابزاری بمنظور تقویت هویت ملی و باورهای دینی و در مسیر خدمت به جامعه تبدیل شود.

تسنیم: آیا امکان دارد که هوش مصنوعی منجر به بحران هویتی در جوامع شود؟

بحران هویتی و فرهنگی ناشی از پیشرفت‌های هوش مصنوعی

زاهدی: یکی از نگرانی‌های عمده این است که هوش مصنوعی، اگر بدون پشتوانه و پیشینه فکری و فلسفی و توجه به مبانی نظری استفاده شود، می‌تواند بحران هویتی به وجود آورد. این بحران ممکن است از طریق تغییر در الگوهای فکری و رفتاری ایجاد شود که از ابزارهای فناوری تغذیه می‌شوند. انسان‌ها ممکن است به جای تعامل اجتماعی و فرهنگی، به فردگرایی و مسئولیت‌ناپذیری تغییر هویت دهد. باید به نقش فرهنگ و باورهای دینی در شکل‌دهی به هویت جامعه و افراد توجه ویژه ای شود و از هوش مصنوعی به‌عنوان ابزاری برای تثبیت و ارتقای این هویت بهره گرفت.

تسنیم: به نظر شما چگونه می‌توانیم هوش مصنوعی را به‌گونه‌ای تعریف کنیم که با زیرساخت‌های فرهنگی و مذهبی ما سازگار باشد؟

زاهدی: ما می‌توانیم از زبان فارسی و تاریخ و فرهنگ ملی و محتوا و مبانی دینی به‌عنوان شالوده و زیرساخت های اصلی در تعریف و توسعه هوش مصنوعی استفاده کنیم. ایجاد نسخه‌های بومی‌سازی شده از ابزارهای هوش مصنوعی با تأکید بر ارزش‌های محلی، می‌تواند به کاهش تبعات منفی و افزایش تاثیرات فرهنگی و اجتماعی کمک کند. باید دستیارها و سامانه های هوشمند و شخصی سازی شده ای ایجاد شود که افراد را به سمت کمال و تعالی  سوق دهد.

تسنیم: تاثیر تاکیدات مقام معظم رهبری به هوش مصنوعی؟

زاهدی: در یک سال اخیر، رهبر معظم انقلاب در دیدارهای مختلفی که با عموم مردم، نخبگان و اعضای هیئت دولت داشته‌اند، به نکات مهمی در حوزه هوش مصنوعی اشاره داشته‌اند. توجه دادن دانشگاه‌ها و پژوهشگاه ها به اهمیت تحقیق و توسعه در حوزه هوش مصنوعی، تبیین جایگاه ایران  در بین چند قدرت برتر دنیا در زمینه هوش مصنوعی، لزوم فعال شدن دیپلماسی فعال فناوری و ایفای نقش در تنظیم توافق نامه ها و معاهدات بین المللی در زمینه توسعه و بهره برداری هوش مصنوعی و توجه به لایه های عمیق و متنوع هوش مصنوعی از جمله فرمایشات ایشان طی سال‌های گذشته است.

آموزش و پژوهش: راهی برای مقابله با تأثیرات منفی هوش مصنوعی

​​ این تاکیدات، نشان‌دهنده درک و فهم عمیق و در عین حال دغدغه‌های معظم له از تأثیرات هوش مصنوعی در جامعه و در اداره آینده دنیا است. تاکیدات ایشان در یک سال گذشته موجب شکل گیری گفتمان‌های علمی و تقویت رشد فناوری هوش مصنوعی و تلاش مسئولان برای ارتقا دانش سازمانی هوش مصنوعی و برنامه ریزی برای استفاده درست از این فناوری در بمنظور دستیابی به کارآیی مطلوب است. اما یک همت و تلاش نخبگانی برای تبیین مبانی نظری هوش مصنوعی نیز باید شکل بگیرد.

تسنیم: موضوعات علمی و اجتماعی چه نقشی در این فرایند دارند؟

زاهدی: موضوعات علمی و اجتماعی باید به‌عنوان کنشگران کلیدی در شکل‌گیری دیدگاه‌ها و سیاست‌ها پیرامون هوش مصنوعی عمل کنند. گفت‌وگو و همکاری بین متخصصان علوم اجتماعی و جامعه شناسی، حقوق و روانشناسی و سایر حوزه‌ها برای ایجاد یک چارچوب جامع و چندبعدی ضروری است. ایجاد کرسی‌های آزاداندیشی و زمینه‌ سازی مشارکت عمومی در این حوزه نیز می‌تواند به فهم بهتر و تدوین راهبردهای مؤثری که فناوری را در خدمت توسعه بشریت قرار می‌دهد، کمک کند.

تسنیم: با توجه به تحولات گسترده در حوزه فناوری و هوش مصنوعی، بسیاری از افراد امیدوار بودند که این فناوری‌ها به بهبود زندگی انسان‌ها منجر شود. با این حال، به نظر می‌رسد که برخی معتقدند این ابزارها آرامش ظاهری به ارمغان آورده‌اند ولی در عمل از انسان‌ها قدرت اختیار را گرفته‌اند. شما این موضوع را چگونه تحلیل می‌کنید؟

زاهدی: نمی توان پاسخ قطعی به این سوال داد. در ابتدا، وقتی صحبت از فناوری‌های نوین مانند هوش مصنوعی به میان آمد، همه امیدوار بودند که این ابزارها بتوانند بار زیادی از دوش انسان‌ها بردارند و زندگی را برای بشریت راحت‌تر کنند. اما حالا می‌بینیم که این فناوری‌ها، به جای بهبود واقعی، نوعی وابستگی شدید ایجاد کرده‌اند. به عبارت دیگر، به جای اینکه انسان‌ها در تصمیم‌گیری‌های مهم زندگی، خودشان نقش اصلی را داشته باشند، بسیاری از این تصمیم‌ها به دست الگوریتم‌ها و سیستم‌ها و دستیارهای هوشمند سپرده شده است. این مسئله آرامش ظاهری را به ارمغان می‌آورد، اما وابستگی شدید به این پدیده های نوظهور، قدرت اختیار  و تصمیم و تحلیل را در انسان ها تضعیف می‌کند.

تسنیم: این روند چگونه بر حوزه‌های مختلف زندگی انسان‌ها، به‌ویژه تصمیم‌گیری‌های کلان و اجتماعی، تأثیر گذاشته است؟

زاهدی: تأثیرات این تغییرات بسیار گسترده است. در بسیاری از زمینه‌ها مانند اقتصاد، سیاست و حتی آموزش، شاهد آن هستیم که سیستم‌های هوش مصنوعی و الگوریتم‌های داده‌محور به تصمیم‌گیران کلان کمک می‌کنند. این موضوع در فرآیند تصمیم سازی می‌تواند مفید باشد، اما چالش اصلی زمانی ایجاد می‌شود که انسان‌ها بدون تفکر و تحلیل عمیق و مستقل، تنها به این سیستم‌ها تکیه کنند. در واقع، در بسیاری از موارد شاهد هستیم که قدرت تصمیم انسان‌ها به‌طور مستقیم تحت تأثیر قرار گرفته و این باعث کاهش استقلال فکری و بروز خلاقیت و نوآوری می‌شود.

تسنیم: شما در حوزه آموزش عالی هم این چالش‌ها را مشاهده کرده‌اید؟

تغییرات رفتاری و اجتماعی در دوران پساکرونا و وابستگی به فناوری

زاهدی: بله، به‌ویژه در حوزه آموزش این موضوع بسیار قابل توجه است. دوران کرونا یک نقطه عطف زندگی دیجیتال بود که بسیاری از دانشجویان و دانش آموزان به استفاده فراگیر از ابزارهای دیجیتال و آموزش‌های برخط و استفاده از ابزارها و فناوری ها از جمله آزمایشگاه های واقعیت مجازی روی آوردند. این تحولات از یک سو لازم و ضروری بود، اما از سوی دیگر، باعث شد که تمایل به تفکر انتقادی و کنکاش و کنجکاوی و پرسشگری در میان یادگیرندگان کاهش یابد. بسیاری از دانشجویان دیگر علاقه‌ای به تحقیق و بررسی عمیق مسائل نداشتند و بیشتر به دنبال اطلاعات آماده و راه‌حل‌های سریع هستند. این مسئله، نه تنها از لحاظ علمی یک مشکل بزرگ است، بلکه در بلندمدت، تأثیرات منفی بر خلاقیت، کار تیمی و اقدامات نوآورانه دانشجویان خواهد گذاشت.

تسنیم: برخی معتقدند که این تحولات هدفمند بوده و بخشی از یک نقشه بزرگتر است. آیا شما هم این دیدگاه را تأیید می‌کنید؟

زاهدی: این یک بحث مهم و جدی است. برخی تحلیل‌گران بر این باورند که توسعه فناوری‌های نوین، به‌ویژه هوش مصنوعی، به عنوان ابزاری برای استعمار نوین فرهنگی و اجتماعی که از آن به استعمار دیجیتال یاد می شود، طراحی شده است. به این معنا که جوامع به شکل هدفمند به سمت پذیرش بی‌چون‌وچرا از این فناوری‌ها سوق داده می‌شوند. یکی از نشانه‌های این امر، سرعت فزاینده پذیرش اینترنت و ابزارهای دیجیتال در دوران پساکرونا است. مردم به‌طور غیرمنتظره‌ای به این ابزارها وابسته شده‌اند و این وابستگی، بدون ایجاد یک چارچوب مدون بومی و فاقد تناسب با بافت جوامع بوده است که می‌تواند به کنترل اجتماعی و حتی از دست رفتن آزادی‌های فردی منجر شود. این نگرانی‌ها واقعی است و نباید به‌سادگی از کنار آن‌ها گذشت.

محمدهادی زاهدی , ستاد توسعه فناوری‌های هوش مصنوعی و رباتیک , هوش مصنوعی ,

تسنیم: با توجه به این چالش‌ها، شما چه راه‌حل‌هایی را برای کاهش تأثیرات منفی پیشنهاد می‌کنید؟

پذیرش هوش مصنوعی: چالش‌ها و فرصت‌های پیش‌روی جامعه

زاهدی: بسیار مهم است که به یک تعادل در استفاده از فناوری و حفظ استقلال فکری و قوه اختیار انسان برسیم. در این زمینه، آموزش نقش اساسی دارد. مردم، به‌ویژه جوانان و دانشجویان، باید مهارت‌های تفکر انتقادی را بیاموزند تا بتوانند از این فناوری‌ها به‌درستی استفاده کنند. درحالیکه هوش مصنوعی و ربات ها در حال یادگری ارتقا خودآگاهی و خودشناسی هستند، انسان ها در حال دوری و فاصله از آن هستند. سیاست‌گذاری‌های فرهنگی و اخلاقی مناسب می‌تواند نقش مهمی در این زمینه ایفا کند. به‌طور کلی، باید فضایی ایجاد شود که مردم به جای اینکه صرفاً مصرف‌کنندگان فناوری باشند، توانمند شوند تا از این ابزارها به نفع توسعه فردی و اجتماعی استفاده کنند.

تسنیم: به عنوان سخن پایانی، آیا فکر می‌کنید جامعه آماده پذیرش چنین رویکردی است؟

زاهدی: جامعه در حال حرکت به سمتی است که این مسائل را جدی‌تر بگیرد. اما نیاز به آگاهی و آموزش گسترده‌ داریم. مهم این است که سیاست‌گذاران، دانشگاه‌ها و نهادهای فرهنگی، همکاری کنند تا چارچوب‌های مناسبی برای استفاده از فناوری‌های نوین فراهم شود. هوش مصنوعی و دیگر فناوری‌ها می‌توانند ابزارهای فوق‌العاده‌ای برای بهبود زندگی انسان‌ها باشند، اما تنها در صورتی که با دقت و در راستای ارزش‌های فرهنگی و اخلاقی جامعه استفاده شوند. در غیر این صورت، نه تنها مسائل پیرامونی ما حل نخواهد شد بلکه با چالش‌هایی به مراتب بزرگ‌تر روبرو خواهیم شد.

انتهای پیام/

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا