نویسنده: پیت پاچال، بنیانگذار و مدیرعامل The Media Copilot
بهعنوان فردی که آموزش استفاده از هوش مصنوعی را به تیمهای روابط عمومی ارائه میدهم، مهمترین چالشی که در جلساتم با آن روبهرو میشوم، مسئله حریم خصوصی است. بهطور خاص، حریم خصوصی دادهها—تقریباً همه نگران این هستند که چتباتها و ابزارهای هوش مصنوعی با اطلاعاتی که به آنها ارائه میدهیم، چه کار میکنند.
یک فرض رایج این است که هر دادهای که وارد یک نرمافزار مبتنی بر هوش مصنوعی میشود، بهطور خودکار در فرآیند آموزش این فناوری قرار میگیرد. این فرض، اگرچه تا حدی منطقی است، اما همیشه صحیح نیست.
درک نادرست از نحوه پردازش دادهها در مدلهای هوش مصنوعی میتواند منجر به دو پیامد شود: یا اطلاعات حساس سازمانی و مشتریان بهطور ناخواسته در معرض نشت دادهها قرار میگیرند، یا سازمانها مجبور میشوند سیاستهای سختگیرانهای مانند ممنوعیت استفاده از هوش مصنوعی را اجرا کنند.
با توجه به گزارش Muck Rack 2025 درباره وضعیت هوش مصنوعی در روابط عمومی، که نشان میدهد ۷۵ درصد از متخصصان این حوزه از هوش مصنوعی استفاده میکنند، پتانسیل نشت اطلاعات در صنعت روابط عمومی بسیار بالاست.
درک حریم خصوصی هوش مصنوعی در روابط عمومی
بخش قابلتوجهی از قدرت هوش مصنوعی در کاربرد آن روی دادههای خاص نهفته است. اگر صرفاً از یک مدل هوش مصنوعی بخواهید اطلاعاتی را از پایگاه دانش خود ارائه دهد (مثلاً بپرسید: «چه روندهای اجتماعی و سیاسی منجر به انقلاب فرانسه شدند؟»)، استفاده چندان مؤثری از این فناوری نکردهاید. علاوه بر این، پاسخها ممکن است شامل “توهمات هوش مصنوعی” (یعنی اطلاعات نادرست یا جعلی) باشند.
راهکار بهتر این است که از توان پردازش زبان طبیعی (NLP) هوش مصنوعی روی دادههای خاص خود استفاده کنید. این کار نهتنها احتمال خطاها و توهمات را کاهش میدهد، بلکه باعث میشود فناوری هوش مصنوعی در راستای نیازهای کاری شما واقعاً مفید و کاربردی شود.
نحوه پردازش دادهها توسط هوش مصنوعی و چالشهای آن
مدلهای هوش مصنوعی معمولاً دادههایی را که به آنها میدهید، پردازش کرده و به فرمتهایی تبدیل میکنند که بتوانند با اطلاعات موجود در پایگاه داده خود مقایسه کنند. سپس، این دادهها را برای استفادههای بعدی ذخیره میکنند. هدف از این فرآیند، دو چیز است:
- امکان دسترسی مجدد کاربران به دادهها در آینده
- استفاده از اطلاعات جدید برای بهبود و آموزش مدل هوش مصنوعی
همین مورد دوم، یعنی افزوده شدن دادههای کاربران به مجموعهی آموزشی مدل، بیشترین نگرانی را در میان کاربران ایجاد کرده است—و این نگرانی کاملاً منطقی است. اگر اطلاعات واردشده بخشی از فرآیند آموزش مدل شوند، در آینده میتوانند روی پاسخهای آن تأثیر بگذارند. در برخی موارد، اگر کاربری از هوش مصنوعی بخواهد منابع خود را ذکر کند، ممکن است دقیقاً همان متنی را که قبلاً دریافت کرده، دوباره ارائه دهد. این پدیده که به آن “بازتولید دادهها” (Regurgitation) گفته میشود، خطرات زیادی در حوزه امنیت اطلاعات ایجاد میکند.
چگونه اشتباه در اشتراکگذاری اطلاعات میتواند منجر به نشت داده شود؟
میتوان بهراحتی متوجه شد که چگونه یک اشتراکگذاری غیرمحتاطانه با سیستمهای هوش مصنوعی میتواند به نشت دادهها منجر شود. البته، این نشت بلافاصله اتفاق نمیافتد؛ چرا که فرآیند آموزش مدل زمانبر است.
نکتهی مثبت این است که شرکتهای توسعهدهنده هوش مصنوعی طی دو سال گذشته، میزان بازتولید دادهها را تا حد زیادی کاهش دادهاند و چنین اتفاقی امروزه کمتر رخ میدهد. بااینحال، ریسک آن همچنان صفر نیست.
قوانین ضروری برای حفظ حریم خصوصی در هوش مصنوعی
جلوگیری از استفاده از دادههای شما برای آموزش مدلهای هوش مصنوعی در واقع کار چندان پیچیدهای نیست. بیشتر چتباتهای عمومی گزینهای در تنظیمات خود دارند که میتوان آن را غیرفعال کرد. برای مثال، در ChatGPT تنها کافی است وارد تنظیمات حساب خود شوید و گزینه “Improve the model for everyone” (بهبود مدل برای همه) را غیرفعال کنید. با این کار، دادههای شما دیگر برای آموزش مدل استفاده نخواهند شد.
اگر بخواهید تنها برای یک جلسهی خاص این امکان را غیرفعال کنید، میتوانید از گفتگوی موقت (Temporary Chat) استفاده کنید. این ویژگی باعث میشود هیچ دادهای ذخیره نشود و به محض بستن تب مرورگر، اطلاعات شما از بین برود. بسیاری از ابزارهای هوش مصنوعی دیگر نیز امکانات مشابهی دارند.
راهکارهای سازمانی برای کنترل بهتر دادهها
هرچند تغییر این تنظیمات در سطح کاربری ساده است، اما در محیطهای سازمانی مدیریت این فرآیند چالشبرانگیز است، زیرا ممکن است کاربران فراموش کنند که تنظیمات را تغییر دهند یا اصلاً از وجود چنین قابلیتی اطلاع نداشته باشند. خوشبختانه، اکثر نرمافزارهای هوش مصنوعی که در سازمانها استفاده میشوند، از طریق APIها اجرا میشوند. این بدان معناست که هیچ دادهای از تعاملات کاربران در مجموعه دادههای آموزشی هوش مصنوعی ذخیره نمیشود.
اگر سازمان شما قصد دارد ابزارهای اختصاصی خود را با استفاده از APIهای هوش مصنوعی توسعه دهد (که برخلاف تصور، کار پیچیدهای نیست)، همین قانون برای شما نیز صادق خواهد بود. البته، باید سیاستهای حریم خصوصی ارائهدهنده API را نیز بررسی کنید، زیرا ممکن است آنها مقررات متفاوتی نسبت به خود مدل هوش مصنوعی داشته باشند.
چالش استفاده از هوش مصنوعی در فضای ابری
برای اکثر کاربران و شرکتها، این سطح از کنترل بر حریم خصوصی دادهها کفایت میکند. اما نکتهای که نباید فراموش کرد این است که برای پردازش سریع دادهها، اطلاعات شما باید به فضای ابری ارائهدهنده هوش مصنوعی ارسال شوند. این یعنی دادهها از محیط امن داخلی شما خارج شده و وارد سیستمهای ابری میشوند.
این مسئله برای برخی از سازمانها، بهویژه آنهایی که با اطلاعات حساس و محرمانه کار میکنند، یک ریسک امنیتی غیرقابل قبول محسوب میشود.
راهکار نهایی: استفاده از هوش مصنوعی بهصورت محلی
اگر سازمان شما نیاز دارد که دادهها کاملاً خصوصی باقی بمانند و بههیچوجه به سرورهای ارائهدهنده هوش مصنوعی ارسال نشوند، بهترین گزینه اجرای هوش مصنوعی بهصورت محلی (On-Premise AI) است. این روش شامل دانلود و اجرای یک مدل هوش مصنوعی بر روی سرور یا کامپیوتری است که کاملاً تحت کنترل شماست.
این کار باعث میشود که دادهها هیچگاه به ارائهدهنده هوش مصنوعی ارسال نشوند. اما در عوض، چالشهای زیر را به همراه دارد:
- عدم دسترسی به ویژگیهای پیشرفته که در نرمافزارهای تجاری وجود دارد
- هزینههای بالای پردازش (چراکه اجرای مدلهای هوش مصنوعی نیاز به سختافزار قدرتمند دارد)
- پیچیدگیهای فنی در راهاندازی و نگهداری مدل
- سرعت پردازش کمتر نسبت به مدلهای ابری عمومی
بااینحال، اگر حریم خصوصی اولویت اصلی شماست، این روش تنها راهکار ۱۰۰٪ امن برای جلوگیری از نشت دادهها محسوب میشود.
اولویتبندی حریم خصوصی در هوش مصنوعی
با شناخت سطوح مختلف حفاظت از حریم خصوصی در هوش مصنوعی، میتوانید یک برنامهی جامع برای حفظ حریم خصوصی در استفاده از هوش مصنوعی تدوین کنید. این برنامه باید شامل سه عنصر اساسی باشد:
۱. تدوین سیاستهای حریم خصوصی
تیم شما باید بداند چه اطلاعاتی را میتوانند و چه اطلاعاتی را نباید وارد سیستمهای هوش مصنوعی کنند. قوانین ساده و شفاف معمولاً مؤثرترند، اما نباید بیش از حد سختگیرانه باشند.
اگر محدودیتهای بیشازحدی اعمال کنید، ممکن است برخی کارمندان از “هوش مصنوعی سایه” (Shadow AI) استفاده کنند، یعنی بدون اطلاع سازمان، کارهای خود را در دستگاههای شخصی یا حسابهای کاربری خصوصی انجام دهند. در مقابل، اگر سیاستهای شما بیش از حد آزادانه باشد، خطر نشت اطلاعات افزایش مییابد.
راهکار متعادل: میتوان دادههای حساس مشتریان را فقط در سیستمهایی که حریم خصوصی بهتری دارند محدود کرد. این یک گام اولیهی مؤثر در جهت کنترل بهینهی دادهها است.
۲. انتخاب ابزارهای مناسب
حسابهای شخصی ChatGPT برای آزمایش و یادگیری مفید هستند، اما برای کارهای حرفهای گزینهای ایدهآل از نظر حریم خصوصی نیستند.
بهتر است بهجای ابزارهای عمومی، از پلتفرمهای سازمانی و تجاری که بهطور پیشفرض دارای قابلیتهای حفظ حریم خصوصی هستند، استفاده کنید. این ابزارها هم اطلاعات را بهتر محافظت میکنند و هم امکان همکاری تیمی امن را فراهم میسازند.
۳. ایجاد برنامهی واکنش اضطراری
اشتباهات اجتنابناپذیرند. وقتی این اشتباهات مربوط به دادهها باشند، باید سریع، قاطعانه و بدون سرزنش افراد واکنش نشان دهید.
برای مدیریت این چالشها، هر تیم باید به یک برنامهی واکنش اضطراری دسترسی داشته باشد که شامل:
- مشخص کردن فرد مسئول برای رسیدگی به مشکلات دادهای
- نحوهی ارتباط با تیمهای فنی و حقوقی در صورت وقوع نشت اطلاعات
- اطلاعات تماس نمایندگان ارائهدهندهی نرمافزار و هوش مصنوعی برای حل سریعتر مشکل
آیا باید به هوش مصنوعی اعتماد کنیم؟ این سوال اشتباه است!
در دو سال اخیر، هوش مصنوعی از یک فناوری شگفتانگیز و ناشناخته به یک ابزار کلیدی در کارهای دانشی تبدیل شده است. نحوهی تعامل آن با ما—که گاهی حتی بهصورت صوتی هم پاسخ میدهد—باعث میشود که احساس کنیم با یک همکار انسانی سروکار داریم.
اما نباید فراموش کنیم که هوش مصنوعی انسان نیست! بلکه یک سیستم پیچیدهی پردازش داده است که توسط شرکتهای چندمیلیارد دلاری ساخته شده و تحت قوانین، سیاستهای شرکتها و برنامهنویسی خاصی عمل میکند.
هر چیزی که به هوش مصنوعی میگویید، وارد این سیستم میشود. پس دادهها و اطلاعات خود را با دقت انتخاب کنید. با انتخاب ابزارهای مناسب و اتخاذ یک رویکرد هوشمندانه، میتوانید با اطمینان از هوش مصنوعی استفاده کنید، بدون آنکه امنیت دادههای خود را به خطر بیندازید.
ارسال پاسخ