راهنمای جامع حفظ حریم خصوصی در هوش مصنوعی برای متخصصان روابط عمومی

نویسنده: پیت پاچال، بنیان‌گذار و مدیرعامل The Media Copilot

به‌عنوان فردی که آموزش استفاده از هوش مصنوعی را به تیم‌های روابط عمومی ارائه می‌دهم، مهم‌ترین چالشی که در جلساتم با آن روبه‌رو می‌شوم، مسئله حریم خصوصی است. به‌طور خاص، حریم خصوصی داده‌ها—تقریباً همه نگران این هستند که چت‌بات‌ها و ابزارهای هوش مصنوعی با اطلاعاتی که به آن‌ها ارائه می‌دهیم، چه کار می‌کنند.

یک فرض رایج این است که هر داده‌ای که وارد یک نرم‌افزار مبتنی بر هوش مصنوعی می‌شود، به‌طور خودکار در فرآیند آموزش این فناوری قرار می‌گیرد. این فرض، اگرچه تا حدی منطقی است، اما همیشه صحیح نیست.

درک نادرست از نحوه پردازش داده‌ها در مدل‌های هوش مصنوعی می‌تواند منجر به دو پیامد شود: یا اطلاعات حساس سازمانی و مشتریان به‌طور ناخواسته در معرض نشت داده‌ها قرار می‌گیرند، یا سازمان‌ها مجبور می‌شوند سیاست‌های سختگیرانه‌ای مانند ممنوعیت استفاده از هوش مصنوعی را اجرا کنند.

با توجه به گزارش Muck Rack 2025 درباره وضعیت هوش مصنوعی در روابط عمومی، که نشان می‌دهد ۷۵ درصد از متخصصان این حوزه از هوش مصنوعی استفاده می‌کنند، پتانسیل نشت اطلاعات در صنعت روابط عمومی بسیار بالاست.

درک حریم خصوصی هوش مصنوعی در روابط عمومی

بخش قابل‌توجهی از قدرت هوش مصنوعی در کاربرد آن روی داده‌های خاص نهفته است. اگر صرفاً از یک مدل هوش مصنوعی بخواهید اطلاعاتی را از پایگاه دانش خود ارائه دهد (مثلاً بپرسید: «چه روندهای اجتماعی و سیاسی منجر به انقلاب فرانسه شدند؟»)، استفاده چندان مؤثری از این فناوری نکرده‌اید. علاوه بر این، پاسخ‌ها ممکن است شامل “توهمات هوش مصنوعی” (یعنی اطلاعات نادرست یا جعلی) باشند.

راهکار بهتر این است که از توان پردازش زبان طبیعی (NLP) هوش مصنوعی روی داده‌های خاص خود استفاده کنید. این کار نه‌تنها احتمال خطاها و توهمات را کاهش می‌دهد، بلکه باعث می‌شود فناوری هوش مصنوعی در راستای نیازهای کاری شما واقعاً مفید و کاربردی شود.

نحوه پردازش داده‌ها توسط هوش مصنوعی و چالش‌های آن

مدل‌های هوش مصنوعی معمولاً داده‌هایی را که به آن‌ها می‌دهید، پردازش کرده و به فرمت‌هایی تبدیل می‌کنند که بتوانند با اطلاعات موجود در پایگاه داده خود مقایسه کنند. سپس، این داده‌ها را برای استفاده‌های بعدی ذخیره می‌کنند. هدف از این فرآیند، دو چیز است:

  1. امکان دسترسی مجدد کاربران به داده‌ها در آینده
  2. استفاده از اطلاعات جدید برای بهبود و آموزش مدل هوش مصنوعی

همین مورد دوم، یعنی افزوده شدن داده‌های کاربران به مجموعه‌ی آموزشی مدل، بیشترین نگرانی را در میان کاربران ایجاد کرده است—و این نگرانی کاملاً منطقی است. اگر اطلاعات واردشده بخشی از فرآیند آموزش مدل شوند، در آینده می‌توانند روی پاسخ‌های آن تأثیر بگذارند. در برخی موارد، اگر کاربری از هوش مصنوعی بخواهد منابع خود را ذکر کند، ممکن است دقیقاً همان متنی را که قبلاً دریافت کرده، دوباره ارائه دهد. این پدیده که به آن “بازتولید داده‌ها” (Regurgitation) گفته می‌شود، خطرات زیادی در حوزه امنیت اطلاعات ایجاد می‌کند.

چگونه اشتباه در اشتراک‌گذاری اطلاعات می‌تواند منجر به نشت داده شود؟

می‌توان به‌راحتی متوجه شد که چگونه یک اشتراک‌گذاری غیرمحتاطانه با سیستم‌های هوش مصنوعی می‌تواند به نشت داده‌ها منجر شود. البته، این نشت بلافاصله اتفاق نمی‌افتد؛ چرا که فرآیند آموزش مدل زمان‌بر است.

نکته‌ی مثبت این است که شرکت‌های توسعه‌دهنده هوش مصنوعی طی دو سال گذشته، میزان بازتولید داده‌ها را تا حد زیادی کاهش داده‌اند و چنین اتفاقی امروزه کمتر رخ می‌دهد. بااین‌حال، ریسک آن همچنان صفر نیست.

قوانین ضروری برای حفظ حریم خصوصی در هوش مصنوعی

جلوگیری از استفاده از داده‌های شما برای آموزش مدل‌های هوش مصنوعی در واقع کار چندان پیچیده‌ای نیست. بیشتر چت‌بات‌های عمومی گزینه‌ای در تنظیمات خود دارند که می‌توان آن را غیرفعال کرد. برای مثال، در ChatGPT تنها کافی است وارد تنظیمات حساب خود شوید و گزینه “Improve the model for everyone” (بهبود مدل برای همه) را غیرفعال کنید. با این کار، داده‌های شما دیگر برای آموزش مدل استفاده نخواهند شد.

اگر بخواهید تنها برای یک جلسه‌ی خاص این امکان را غیرفعال کنید، می‌توانید از گفتگوی موقت (Temporary Chat) استفاده کنید. این ویژگی باعث می‌شود هیچ داده‌ای ذخیره نشود و به محض بستن تب مرورگر، اطلاعات شما از بین برود. بسیاری از ابزارهای هوش مصنوعی دیگر نیز امکانات مشابهی دارند.

راهکارهای سازمانی برای کنترل بهتر داده‌ها

هرچند تغییر این تنظیمات در سطح کاربری ساده است، اما در محیط‌های سازمانی مدیریت این فرآیند چالش‌برانگیز است، زیرا ممکن است کاربران فراموش کنند که تنظیمات را تغییر دهند یا اصلاً از وجود چنین قابلیتی اطلاع نداشته باشند. خوشبختانه، اکثر نرم‌افزارهای هوش مصنوعی که در سازمان‌ها استفاده می‌شوند، از طریق APIها اجرا می‌شوند. این بدان معناست که هیچ داده‌ای از تعاملات کاربران در مجموعه داده‌های آموزشی هوش مصنوعی ذخیره نمی‌شود.

اگر سازمان شما قصد دارد ابزارهای اختصاصی خود را با استفاده از APIهای هوش مصنوعی توسعه دهد (که برخلاف تصور، کار پیچیده‌ای نیست)، همین قانون برای شما نیز صادق خواهد بود. البته، باید سیاست‌های حریم خصوصی ارائه‌دهنده API را نیز بررسی کنید، زیرا ممکن است آن‌ها مقررات متفاوتی نسبت به خود مدل هوش مصنوعی داشته باشند.

چالش استفاده از هوش مصنوعی در فضای ابری

برای اکثر کاربران و شرکت‌ها، این سطح از کنترل بر حریم خصوصی داده‌ها کفایت می‌کند. اما نکته‌ای که نباید فراموش کرد این است که برای پردازش سریع داده‌ها، اطلاعات شما باید به فضای ابری ارائه‌دهنده هوش مصنوعی ارسال شوند. این یعنی داده‌ها از محیط امن داخلی شما خارج شده و وارد سیستم‌های ابری می‌شوند.

این مسئله برای برخی از سازمان‌ها، به‌ویژه آن‌هایی که با اطلاعات حساس و محرمانه کار می‌کنند، یک ریسک امنیتی غیرقابل قبول محسوب می‌شود.

راهکار نهایی: استفاده از هوش مصنوعی به‌صورت محلی

اگر سازمان شما نیاز دارد که داده‌ها کاملاً خصوصی باقی بمانند و به‌هیچ‌وجه به سرورهای ارائه‌دهنده هوش مصنوعی ارسال نشوند، بهترین گزینه اجرای هوش مصنوعی به‌صورت محلی (On-Premise AI) است. این روش شامل دانلود و اجرای یک مدل هوش مصنوعی بر روی سرور یا کامپیوتری است که کاملاً تحت کنترل شماست.

این کار باعث می‌شود که داده‌ها هیچ‌گاه به ارائه‌دهنده هوش مصنوعی ارسال نشوند. اما در عوض، چالش‌های زیر را به همراه دارد:

  • عدم دسترسی به ویژگی‌های پیشرفته که در نرم‌افزارهای تجاری وجود دارد
  • هزینه‌های بالای پردازش (چراکه اجرای مدل‌های هوش مصنوعی نیاز به سخت‌افزار قدرتمند دارد)
  • پیچیدگی‌های فنی در راه‌اندازی و نگهداری مدل
  • سرعت پردازش کمتر نسبت به مدل‌های ابری عمومی

بااین‌حال، اگر حریم خصوصی اولویت اصلی شماست، این روش تنها راهکار ۱۰۰٪ امن برای جلوگیری از نشت داده‌ها محسوب می‌شود.

اولویت‌بندی حریم خصوصی در هوش مصنوعی

با شناخت سطوح مختلف حفاظت از حریم خصوصی در هوش مصنوعی، می‌توانید یک برنامه‌ی جامع برای حفظ حریم خصوصی در استفاده از هوش مصنوعی تدوین کنید. این برنامه باید شامل سه عنصر اساسی باشد:

۱. تدوین سیاست‌های حریم خصوصی

تیم شما باید بداند چه اطلاعاتی را می‌توانند و چه اطلاعاتی را نباید وارد سیستم‌های هوش مصنوعی کنند. قوانین ساده و شفاف معمولاً مؤثرترند، اما نباید بیش از حد سختگیرانه باشند.

اگر محدودیت‌های بیش‌ازحدی اعمال کنید، ممکن است برخی کارمندان از “هوش مصنوعی سایه” (Shadow AI) استفاده کنند، یعنی بدون اطلاع سازمان، کارهای خود را در دستگاه‌های شخصی یا حساب‌های کاربری خصوصی انجام دهند. در مقابل، اگر سیاست‌های شما بیش از حد آزادانه باشد، خطر نشت اطلاعات افزایش می‌یابد.

راهکار متعادل: می‌توان داده‌های حساس مشتریان را فقط در سیستم‌هایی که حریم خصوصی بهتری دارند محدود کرد. این یک گام اولیه‌ی مؤثر در جهت کنترل بهینه‌ی داده‌ها است.

۲. انتخاب ابزارهای مناسب

حساب‌های شخصی ChatGPT برای آزمایش و یادگیری مفید هستند، اما برای کارهای حرفه‌ای گزینه‌ای ایده‌آل از نظر حریم خصوصی نیستند.

بهتر است به‌جای ابزارهای عمومی، از پلتفرم‌های سازمانی و تجاری که به‌طور پیش‌فرض دارای قابلیت‌های حفظ حریم خصوصی هستند، استفاده کنید. این ابزارها هم اطلاعات را بهتر محافظت می‌کنند و هم امکان همکاری تیمی امن را فراهم می‌سازند.

۳. ایجاد برنامه‌ی واکنش اضطراری

اشتباهات اجتناب‌ناپذیرند. وقتی این اشتباهات مربوط به داده‌ها باشند، باید سریع، قاطعانه و بدون سرزنش افراد واکنش نشان دهید.

برای مدیریت این چالش‌ها، هر تیم باید به یک برنامه‌ی واکنش اضطراری دسترسی داشته باشد که شامل:

  • مشخص کردن فرد مسئول برای رسیدگی به مشکلات داده‌ای
  • نحوه‌ی ارتباط با تیم‌های فنی و حقوقی در صورت وقوع نشت اطلاعات
  • اطلاعات تماس نمایندگان ارائه‌دهنده‌ی نرم‌افزار و هوش مصنوعی برای حل سریع‌تر مشکل

آیا باید به هوش مصنوعی اعتماد کنیم؟ این سوال اشتباه است!

در دو سال اخیر، هوش مصنوعی از یک فناوری شگفت‌انگیز و ناشناخته به یک ابزار کلیدی در کارهای دانشی تبدیل شده است. نحوه‌ی تعامل آن با ما—که گاهی حتی به‌صورت صوتی هم پاسخ می‌دهد—باعث می‌شود که احساس کنیم با یک همکار انسانی سروکار داریم.

اما نباید فراموش کنیم که هوش مصنوعی انسان نیست! بلکه یک سیستم پیچیده‌ی پردازش داده است که توسط شرکت‌های چندمیلیارد دلاری ساخته شده و تحت قوانین، سیاست‌های شرکت‌ها و برنامه‌نویسی خاصی عمل می‌کند.

هر چیزی که به هوش مصنوعی می‌گویید، وارد این سیستم می‌شود. پس داده‌ها و اطلاعات خود را با دقت انتخاب کنید. با انتخاب ابزارهای مناسب و اتخاذ یک رویکرد هوشمندانه، می‌توانید با اطمینان از هوش مصنوعی استفاده کنید، بدون آنکه امنیت داده‌های خود را به خطر بیندازید.