هوش مصنوعی و روابط عمومی: روندهای حقوقی، اخلاقی و ارتباطی

تکنولوژی همواره عاملی برای تغییر در حوزه ارتباطات بوده است. از اختراع ماشین چاپ گرفته تا تلگراف، تلفن، تلویزیون، دستگاه فکس، اینترنت و شبکه‌های اجتماعی، هرکدام از این نوآوری‌ها تحولی در صنعت ارتباطات ایجاد کرده‌اند. با این حال، این تغییرات اصول بنیادین این حوزه را دست‌نخورده باقی گذاشته و عمدتاً موجب دسترسی آسان‌تر، هدفمندتر و در برخی موارد، بهبود ارتباطات شده‌اند.

اما ظهور هوش مصنوعی (AI) چالش‌های جدیدی را برای متخصصان ارتباطات، به‌ویژه در حوزه روابط عمومی، به همراه داشته است. با ورود به سال ۲۰۲۵، پرسش‌های کلیدی درباره‌ی نقش هوش مصنوعی در روابط عمومی مطرح شده است:

  • آیا هوش مصنوعی ایمن است؟
  • آیا دقت کافی دارد؟
  • آیا از حریم خصوصی محافظت می‌کند؟
  • آیا نیاز به شفاف‌سازی و افشا دارد؟
  • و شاید مهم‌ترین پرسش: آیا این فناوری جایگزین متخصصان روابط عمومی خواهد شد؟

پاسخ این سؤالات هنوز در حال بررسی است و همزمان با تصمیم‌گیری قانون‌گذاران، توسعه‌دهندگان هوش مصنوعی و نیروی کار جهانی، به‌تدریج روشن‌تر می‌شود. سال ۲۰۲۵ را می‌توان نقطه‌ی عطفی در پذیرش و قانون‌گذاری پیرامون هوش مصنوعی دانست، چرا که رویکردهای فلسفی و سیاست‌گذاری‌های این فناوری در حال تثبیت شدن است. بسیاری از کارشناسان، از جمله نویسنده‌ی این مقاله، بر این باورند که هوش مصنوعی یک ابزار مفید برای بهبود ارتباطات و به‌ویژه روابط عمومی است.

صنعت روابط عمومی همواره توانایی سازگاری با فناوری‌های نوین ارتباطی را داشته است و رویکرد اخلاقی آن، که بر شفافیت، پاسخگویی و تعامل منصفانه استوار است، به این تطبیق‌پذیری کمک کرده است. تجربه‌ی انسانی و درک عمیق اخلاقی متخصصان روابط عمومی، آن‌ها را به نیروهایی غیرقابل جایگزینی تبدیل می‌کند، حتی در برابر پیشرفته‌ترین فناوری‌ها.

با این حال، انتظار می‌رود هوش مصنوعی به‌طور فزاینده‌ای در حرفه‌ی روابط عمومی نهادینه شده و مقرراتی جهانی برای آن تدوین شود. با وجود این پیش‌بینی‌ها، کنترل کامل این فناوری همچنان چالشی بزرگ است. پیش‌بینی روندهای آینده در هر صنعتی دشوار است، اما در حوزه‌ی هوش مصنوعی و ارتباطات که به‌سرعت در حال تحول است، این امر حتی پیچیده‌تر می‌شود. با این حال، سه روند اصلی در سال‌های اخیر شکل گرفته است که متخصصان روابط عمومی باید هنگام استفاده از هوش مصنوعی در فرآیندهای ارتباطی خود به آن‌ها توجه داشته باشند.

قانون‌گذاری هوش مصنوعی: فقدان رویکردی یکپارچه در سطح جهانی

قانون‌گذاری در حوزه فناوری معمولاً بازتابی از اولویت‌های قانون‌گذاران و دولت‌ها است. همانند بسیاری از مسائل سیاسی، قوانین مرتبط با هوش مصنوعی نیز در مناطق مختلف جهان بر اساس اولویت‌های متفاوتی تدوین می‌شوند.

اتحادیه اروپا: اولویت با حریم خصوصی و نظارت انسانی

در اتحادیه اروپا، قانون هوش مصنوعی (AI Act) بر موضوعاتی همچون حفظ حریم خصوصی، نظارت انسانی و محافظت از جامعه در برابر پیامدهای نامطلوب هوش مصنوعی تمرکز دارد. یکی از نگرانی‌های اصلی قانون‌گذاران اروپایی، ماهیت غیرشفاف عملکرد هوش مصنوعی است که ممکن است مشکلات پیش‌بینی‌نشده‌ای را در فرآیندهای تصمیم‌گیری ایجاد کند.

سابقه طولانی اتحادیه اروپا در تنظیم قوانین سخت‌گیرانه درباره‌ی حفظ حریم خصوصی، به‌ویژه با مقررات GDPR، نقش مهمی در تدوین این مقررات داشته است. با این حال، علی‌رغم نفوذ گسترده اتحادیه اروپا در بازار جهانی، این استانداردها در همه کشورها پذیرفته نشده و جهانی نیستند.

ایالات متحده: تعادل میان امنیت و رقابت ژئوپلیتیکی

در ایالات متحده، قانون‌گذاران نیز درباره‌ی پیامدهای پیش‌بینی‌نشده‌ی هوش مصنوعی، به‌ویژه تأثیر آن بر اراده و حقوق انسانی، نگران هستند. اما در کنار این دغدغه‌ها، تمرکز اصلی سیاست‌گذاران آمریکایی بر جایگاه ژئوپلیتیکی ایالات متحده در رقابت جهانی توسعه‌ی هوش مصنوعی است.

به همین دلیل، ایالات متحده از قانون‌گذاری سخت‌گیرانه در حوزه هوش مصنوعی خودداری می‌کند، چرا که تصویب مقررات جامع و محدودکننده، ممکن است محیط حقوقی نامطلوبی برای نوآوری در این حوزه ایجاد کند. این رویکرد تا حدی شبیه به سیاست‌های چین، رقیب اصلی آمریکا در توسعه‌ی هوش مصنوعی، است که سعی دارد تعادل میان کنترل و رشد این فناوری را حفظ کند.

ساختار غیرمتمرکز قانون‌گذاری در ایالات متحده

یکی دیگر از چالش‌های قانون‌گذاری هوش مصنوعی در آمریکا، ساختار فدرالی و غیرمتمرکز این کشور است. برخلاف اتحادیه اروپا که قوانین جامع و یکپارچه‌ای را در سراسر منطقه اعمال می‌کند، سیستم حقوقی آمریکا به‌صورت غیرمتمرکز عمل می‌کند. در این ساختار، ایالت‌ها، دولت فدرال، و نهادهای مختلف هر یک در تدوین قوانین و مقررات سهم دارند.

نکته جالب این است که در حال حاضر، ایالت‌های آمریکا پیشگام در تصویب قوانین مربوط به حفظ حریم خصوصی در حوزه هوش مصنوعی هستند، در حالی که دولت فدرال هنوز به رویکردی مشخص و هماهنگ در این زمینه نرسیده است.

در حالی که اتحادیه اروپا مسیر قانون‌گذاری سخت‌گیرانه‌تری را در قبال هوش مصنوعی در پیش گرفته، ایالات متحده و چین به دنبال ایجاد تعادلی میان توسعه فناوری و مقررات‌گذاری هستند. این تفاوت‌های سیاست‌گذاری نشان می‌دهد که در حال حاضر هیچ چارچوب قانونی واحد و یکپارچه‌ای برای هوش مصنوعی در سطح جهانی وجود ندارد و هر منطقه بر اساس اولویت‌های خود به این مسئله نگاه می‌کند.

قانون‌گذاری هوش مصنوعی تمامی چالش‌های پیش روی متخصصان روابط عمومی را پوشش نمی‌دهد

متخصصان روابط عمومی نقشی منحصر‌به‌فرد در پیاده‌سازی هوش مصنوعی دارند، زیرا قوانین فعلی این حوزه هنوز تمامی چالش‌های ارتباطی مرتبط با این فناوری را در بر نمی‌گیرد. همواره مشاهده شده است که قانون‌گذاری از نوآوری‌های تکنولوژیک عقب می‌ماند. حتی جامع‌ترین مقررات فعلی، مانند قانون هوش مصنوعی اتحادیه اروپا (AI Act)، قادر به پوشش تمام چالش‌هایی که استفاده گسترده از هوش مصنوعی مولد به همراه دارد، نیست.

چالش‌های جدید در استفاده از هوش مصنوعی

ظهور کاربردهای جدید هوش مصنوعی، به‌ویژه هوش مصنوعی پیش‌بینی‌کننده (Predictive AI)، چالش‌های جدی ایجاد کرده است. مهم‌ترین این چالش‌ها عبارت‌اند از:

  • شفافیت در فرآیند تصمیم‌گیری
  • ایجاد سازوکارهایی برای نظارت انسانی
  • امکان تجدیدنظر و اعتراض در تصمیم‌گیری‌های مهم (مانند تصمیمات مالی، حقوقی یا پزشکی)

در چنین شرایطی، متخصصان روابط عمومی باید بیشتر بر اصول اخلاقی حرفه‌ای خود تکیه کنند تا بتوانند تصمیمات مناسبی در خصوص نحوه‌ی پیاده‌سازی و مدیریت هوش مصنوعی اتخاذ کنند.

لزوم تدوین دستورالعمل‌های سازمانی برای هوش مصنوعی

موضوعاتی همچون افشاگری در مورد استفاده از هوش مصنوعی، نحوه‌ی تصمیم‌گیری، میزان دقت فناوری و فرآیند نظارت، همگی نیازمند تعریف راهنماهای سازمانی هستند که باید به‌طور مداوم و متناسب با تغییرات فناوری به‌روزرسانی شوند.

همچنین به نظر می‌رسد که انتظارات در مورد میزان افشای استفاده از هوش مصنوعی در حال تغییر است. امروزه، استفاده از هوش مصنوعی در تولید یا ویرایش محتوا به امری عادی تبدیل شده است. این موضوع پرسش‌های مهمی را درباره زمان و شرایط الزام به افشاگری در مورد استفاده از هوش مصنوعی مطرح می‌کند.

شفافیت و نظارت؛ سخت‌تر از آنچه تصور می‌شود

انتظار برای شفافیت و نظارت بر هوش مصنوعی به یکی از اولویت‌های اصلی قانون‌گذاران و جامعه تبدیل شده است. با این حال، در حالی که مسئولیت‌پذیری یک دغدغه جهانی است، ویژگی‌های خاص هوش مصنوعی، اجرای این اصل را با چالش‌هایی مواجه می‌کند. بسیاری از سیستم‌های هوش مصنوعی به‌عنوان “جعبه سیاه” عمل می‌کنند، به این معنا که فرآیندهای درونی آن‌ها به‌سادگی قابل درک یا شفاف‌سازی نیستند، به‌ویژه زمانی که دارای ویژگی‌های خودکار باشند.

چالش دیگر، مقیاس‌پذیری نظارت بر هوش مصنوعی است. این فناوری قادر است خروجی‌های سریع‌تر و پیچیده‌تری نسبت به ابزارهای سنتی ارائه دهد، که کار نظارت را دشوارتر می‌سازد. متخصصان روابط عمومی همیشه با چالش‌های مرتبط با شفافیت اخلاقی سروکار داشته‌اند، اما هوش مصنوعی معضلی جدید را به همراه دارد: شفافیت و نظارت همیشه از نظر فنی قابل اجرا نیستند.

ارتباطات هوش مصنوعی و بحران اعتماد عمومی

این شرایط ایجاب می‌کند که متخصصان روابط عمومی رویکردی شفاف‌تر و فعالانه‌تر در توضیح نحوه‌ی استفاده از هوش مصنوعی در سازمان‌های خود اتخاذ کنند. یکی از مهم‌ترین مسائل، محدودیت‌های شفافیت در ارتباطات تولیدشده با هوش مصنوعی است. در برخی موارد، این امر ممکن است اعتماد عمومی را تضعیف کرده و حتی به گسترش اطلاعات نادرست منجر شود.

آینده‌ای نامشخص و نقش کلیدی روابط عمومی

فقدان یک قانون‌گذاری جامع و رشد سریع فناوری، متخصصان روابط عمومی را در فضایی مبهم و ناشناخته قرار داده است. نتیجه‌ی این وضعیت ممکن است نه تصویب قوانین بیشتر، بلکه پذیرش یک آینده نامشخص باشد.

در این میان، سازمان‌ها باید نگاه عمیق‌تری به نقش خود به‌عنوان نگهبانان اعتماد عمومی داشته باشند. یکی از نکات مهم در شفافیت فناوری‌های هوش مصنوعی این است که متخصصان روابط عمومی باید بپذیرند که پاسخ‌ها همیشه کامل و قطعی نیستند. بنابراین، برقراری ارتباطات انسانی مبتنی بر صداقت و اعتماد، اهمیت بیشتری نسبت به قبل خواهد داشت، چرا که دستیابی به یک سیستم نظارتی بی‌نقص برای هوش مصنوعی دور از دسترس است.

با سرعت فزاینده‌ی نوآوری در حوزه هوش مصنوعی، متخصصان روابط عمومی نقشی اساسی و غیرقابل جایگزین در ایجاد تعادل میان ظرفیت‌های گسترده‌ی هوش مصنوعی و حفظ جنبه‌های انسانی در ارتباطات ایفا خواهند کرد.