آنتی ویروس پادویش

هوش مصنوعی و حریم خصوصی: چالش ها، راه حل ها و بهترین روش ها

AI و مسائل مربوط به حریم خصوصی

فهرست مطالب

نگرانی‌های مربوط به حریم خصوصی هوش مصنوعی با ادغام بیشتر فناوری‌های نوظهوری مانند هوش مصنوعی در زندگی روزمره در حال افزایش است. رهبران کسب‌وکار که با هوش مصنوعی و مسائل مربوط به حریم خصوصی سروکار دارند، باید حتی در حالی که از مسائل مربوط به حریم خصوصی و اخلاق همراه آن محافظت می‌کنند، پتانسیل بالای این فناوری را درک کنند. این راهنما برخی از رایج‌ترین نگرانی‌های مربوط به هوش مصنوعی و حریم خصوصی را که کسب‌وکارها با آن مواجه هستند، بررسی می‌کند. علاوه بر این، راه‌حل‌ها و بهترین شیوه‌هایی را که سازمان‌ها می‌توانند برای دستیابی به نتایج بهتر برای مشتریان خود دنبال کنند، شناسایی می‌کند.

گیفت کارت

سیاست‌های گسترده و مبهم ذخیره‌سازی داده

تعداد کمی از عرضه‌کنندگان هوش مصنوعی در مورد مدت زمان، مکان و چرایی ذخیره‌سازی داده‌های کاربر شفاف هستند. عرضه‌کنندگانی که شفافیت دارند نیز اغلب داده‌ها را برای مدت طولانی ذخیره می‌کنند یا از آن‌ها به روش‌هایی استفاده می‌کنند که به وضوح اولویت با حریم خصوصی نیست.

به عنوان مثال، سیاست حفظ حریم خصوصی OpenAI بیان می‌کند که می‌تواند «اطلاعات شخصی را به فروشندگان و ارائه دهندگان خدمات، از جمله ارائه دهندگان خدمات میزبانی، فروشندگان خدمات مشتری، خدمات ابری، نرم افزار ارتباطات ایمیل، خدمات تجزیه و تحلیل وب و سایر ارائه دهندگان فناوری اطلاعات، و موارد دیگر ارائه دهد. طبق دستورالعمل‌های ما، این طرفین فقط در حین انجام وظایف خود برای ما به اطلاعات شخصی دسترسی پیدا کرده، آنها را پردازش یا ذخیره خواهند کرد.»

در این مورد، چندین نوع شرکت می‌توانند به دلایل مختلف و طبق قوانین تعیین‌شده توسط OpenAI به داده‌های ChatGPT شما دسترسی پیدا کنند. این موضوع به ویژه نگران کننده است و مورد دیگر دسته‌ای از فروشندگان است که می‌توانند داده‌های شما را جمع‌آوری و ذخیره کنند، زیرا هیچ اطلاعاتی در مورد اینکه این فروشندگان چه کاری انجام می‌دهند یا چگونه ممکن است داده‌های شما را استفاده یا ذخیره کنند، وجود ندارد.

سیاست OpenAI اطلاعات بیشتری در مورد اینکه چه داده‌هایی به طور معمول ذخیره می‌شوند و حقوق شما به عنوان یک مصرف کننده در زمینه حریم خصوصی چیست، ارائه می‌دهد. شما می‌توانید به داده‌های خود دسترسی داشته باشید و برخی از اطلاعات در مورد نحوه پردازش آن‌ها را بررسی کنید، داده‌های خود را از سوابق OpenAI حذف کنید، پردازش اطلاعات را محدود یا لغو کنید و یا شکایت رسمی به OpenAI یا مقامات محلی حفاظت از داده‌ها ارائه دهید.

این رویکرد جامع‌تر به حریم خصوصی داده‌ها یک گام مثبت است، اما این سیاست همچنان حاوی ابهامات و عناصر نگران کننده‌ای است، به ویژه برای کاربران با اکانت‌های رایگان و پلاس که کنترل یا دید محدودی بر نحوه استفاده از داده‌هایشان دارند.

بی‌توجهی به قوانین کپی‌رایت و مالکیت فکری

مدل‌های هوش مصنوعی داده‌های آموزشی را از تمام گوشه‌های وب جمع‌آوری می‌کنند. متأسفانه، بسیاری از عرضه‌کنندگان هوش مصنوعی زمانی که از آثار هنری، محتوا یا سایر مالکیت‌های فکری دارای حق تکثیر شخص دیگری بدون رضایت او استفاده می‌کنند، یا متوجه این موضوع نیستند یا اهمیتی نمی‌دهند.

ادعا می‌شود که چندین مورد از این ابزارها بدون اجازه تصاویر دارای حق تکثیر هنرمندان را از اینترنت کپی کرده‌اند. برخی از عرضه‌کنندگان با اشاره به عدم وجود قوانینی که آنها را از انجام این فرآیند برای آموزش هوش مصنوعی منع کند، از اقدامات خود دفاع کرده‌اند.

مشکل استفاده از محصولات و مالکیت فکری دارای حق تکثیر غیرمجاز با گذشت زمان و با آموزش، بازآموزی و تنظیم دقیق مدل‌های هوش مصنوعی با این داده‌ها بسیار بدتر می‌شود. بسیاری از مدل‌های هوش مصنوعی امروزی آنقدر پیچیده هستند که حتی سازندگان آنها هم نمی‌توانند با اطمینان بگویند از چه داده‌هایی استفاده می‌شود، این داده‌ها از کجا آمده‌اند و چه کسی به آنها دسترسی دارد.

ضمانت‌های نظارتی محدود

برخی از کشورها و نهادهای نظارتی در حال کار بر روی مقررات هوش مصنوعی و سیاست‌های استفاده ایمن هستند، اما هیچ استاندارد کلی به طور رسمی برای پاسخگو کردن عرضه‌کنندگان هوش مصنوعی در مورد نحوه ساخت و استفاده از ابزارهای هوش مصنوعی وجود ندارد. نزدیک‌ترین پیشنهادی برای قانون شدن، «قانون هوش مصنوعی اتحادیه اروپا» است که انتظار می‌رود در تابستان ۲۰۲۴ در ژورنال رسمی اتحادیه اروپا منتشر شود. لازم به ذکر است اجرای برخی از جنبه‌های این قانون ممکن است تا سه سال طول بکشد.

با وجود چنین مقررات محدودی، تعدادی از عرضه‌کنندگان هوش مصنوعی به دلیل نقض مالکیت فکری و فرایندهای مبهم جمع‌آوری داده و آموزش مورد انتقاد قرار گرفته‌اند، اما نتیجه‌ی کمی از این اتهامات حاصل شده است. در اکثر موارد، عرضه‌کنندگان هوش مصنوعی بدون دخالت، قوانین ذخیره‌سازی داده، امنیت سایبری و کاربر خود را تعیین می‌کنند.

چگونه جمع‌آوری داده، مسائل مربوط به حریم خصوصی هوش مصنوعی را ایجاد می‌کند

متأسفانه، تعداد کل و روش‌های متنوعی که از طریق آن‌ها داده‌ها جمع‌آوری می‌شوند، تقریباً تضمین می‌کند که این داده‌ها به سمت استفاده‌های غیرمسئولانه هدایت شوند. از وب‌اسکرپینگ گرفته تا فناوری بیومتریک و سنسورهای اینترنت اشیا، زندگی مدرن اساساً در خدمت تلاش‌های جمع‌آوری داده‌ها سپری می‌شود.

وب‌اسکرپینگ دام گسترده‌ای را صید می‌کند

از آنجایی که وب‌اسکرپینگ و کراولینگ به هیچ مجوز ویژه‌ای نیاز ندارند و به فروشندگان این امکان را می‌دهند که حجم عظیمی از داده‌های متنوع را جمع‌آوری کنند، ابزارهای هوش مصنوعی اغلب برای ایجاد سریع مجموعه داده‌های آموزشی در مقیاس بزرگ به این شیوه‌ها متکی هستند. محتوا از منابع در دسترس عموم در اینترنت، از جمله وب‌سایت‌های شخص ثالث، ویکی‌ها، کتابخانه‌های دیجیتال و موارد دیگر، استخراج می‌شود. در سال‌های اخیر، داده‌های متای کاربران نیز به طور فزاینده‌ای از مجموعه داده‌های بازاریابی و تبلیغات و وب‌سایت‌هایی با داده‌هایی در مورد مخاطبان هدف و تعاملات آن‌ها استخراج می‌شود.

پرسش‌های کاربر در مدل‌های هوش مصنوعی، داده‌ها را حفظ می‌کنند

هنگامی که کاربری سوالی یا داده‌ی دیگری را وارد یک مدل هوش مصنوعی می‌کند، اکثر مدل‌های هوش مصنوعی حداقل برای چند روز آن داده را ذخیره می‌کنند. در حالی که ممکن است از آن داده برای هیچ چیز دیگری استفاده نشود، بسیاری از ابزارهای هوش مصنوعی آن داده را جمع‌آوری کرده و برای مقاصد آموزشی آینده نگه می‌دارند.

فناوری بیومتریک می‌تواند مزاحم باشد

تجهیزات نظارتی از جمله دوربین‌های امنیتی، اسکنرهای صورت و اثر انگشت و میکروفون همگی می‌توانند برای جمع‌آوری داده‌های بیومتریک و شناسایی افراد بدون اطلاع یا رضایت آن‌ها مورد استفاده قرار گیرند. قوانین در ایالت‌های مختلف ایالات متحده در مورد اینکه شرکت‌ها هنگام استفاده از این نوع فناوری باید تا چه حد شفاف باشند، سخت‌تر می‌شود. با این حال، در بیشتر موارد، آن‌ها می‌توانند بدون نیاز به کسب اجازه از مشتریان، این داده‌ها را جمع‌آوری، ذخیره و استفاده کنند.

سنسورها و دستگاه‌های اینترنت اشیا همیشه روشن هستند

سنسورهای اینترنت اشیا ( (IoT) و سیستم‌های محاسبات edg مقادیر عظیمی از داده‌های لحظه‌ای را جمع‌آوری کرده و آن داده‌ها را در همان نزدیکی پردازش می‌کنند تا کارهای محاسباتی بزرگ‌تر و سریع‌تری را انجام دهند. نرم‌افزار هوش مصنوعی اغلب از پایگاه داده‌ی دقیق یک سیستم اینترنت اشیا استفاده می‌کند و داده‌های مرتبط آن را از طریق روش‌هایی مانند یادگیری داده، جذب داده، پروتکل‌های ایمن اینترنت اشیا و درگاه‌ها و APIها جمع‌آوری می‌کند.

رابطه‌ی API با بسیاری از برنامه‌ها

API ها به کاربران رابطه‌ای با انواع مختلف نرم‌افزارهای تجاری می‌دهند تا بتوانند به راحتی انواع مختلفی از داده‌ها را برای تجزیه و تحلیل و آموزش هوش مصنوعی جمع‌آوری و ادغام کنند. با تنظیمات و API مناسب، کاربران می‌توانند داده‌ها را از CRMها، پایگاه‌های داده، انبارهای داده و سیستم‌های مبتنی بر ابر و داخلی جمع‌آوری کنند. با توجه به اینکه تعداد کمی از کاربران به سیاست‌های ذخیره‌سازی و استفاده از داده‌هایی که پلتفرم‌های نرم‌افزاری آن‌ها دنبال می‌کنند، توجه می‌کنند، به احتمال زیاد داده‌های بسیاری از کاربران بدون اطلاع آن‌ها جمع‌آوری شده و در موارد استفاده‌ی مختلف هوش مصنوعی به کار رفته است.

دسترسی آسان به سوابق عمومی

سوابق عمومی، چه دیجیتالی شده باشند یا نه، اغلب جمع‌آوری و در مجموعه‌های آموزشی هوش مصنوعی گنجانده می‌شوند. اطلاعات مربوط به شرکت‌های سهامی عام، رویدادهای جاری و تاریخی، سوابق کیفری و مهاجرتی و سایر اطلاعات عمومی را می‌توان بدون نیاز به مجوز قبلی جمع‌آوری کرد.

نظرسنجی کاربران، شخصی‌سازی را هدایت می‌کند

اگرچه این روش جمع‌آوری داده بیشتر سنتی است، استفاده از نظرسنجی‌ها و پرسشنامه‌ها همچنان روشی امتحان‌شده و مطمئن برای جمع‌آوری داده از کاربران توسط عرضه‌کنندگان هوش مصنوعی است. کاربران ممکن است به سوالاتی در مورد اینکه به چه محتوایی بیشتر علاقه دارند، به چه کمکی نیاز دارند، آخرین تجربه آن‌ها با یک محصول یا خدمات چگونه بوده است، یا هر سوال دیگری که به هوش مصنوعی در مورد چگونگی شخصی‌سازی تعاملات، ایده بهتری بدهد، پاسخ دهند.

روندهای نوظهور در هوش مصنوعی و حریم خصوصی

از آنجایی که چشم‌انداز هوش مصنوعی با سرعت زیادی در حال تکامل است، روندهای نوظهوری که مسائل هوش مصنوعی و حریم خصوصی را شکل می‌دهند نیز با سرعت قابل توجهی در حال تغییر هستند. پیشرفت‌های عمده در خود فناوری هوش مصنوعی، افزایش مقررات و نقش افکار عمومی در رشد هوش مصنوعی از جمله این روندهای پیشرو هستند.

پیشرفت‌های فناوری هوش مصنوعی

فناوری‌های هوش مصنوعی از نظر پیچیدگی فناوری، موارد استفاده و علاقه و دانش عمومی به طور چشمگیری گسترش یافته‌اند. این رشد در مورد هوش مصنوعی سنتی‌تر و فناوری‌های یادگیری ماشینی و همچنین هوش مصنوعی تولیدکننده اتفاق افتاده است.

مدل‌های زبان بزرگ (LLM) هوش مصنوعی تولیدکننده و سایر فناوری‌های هوش مصنوعی در مقیاس بزرگ، با مجموعه داده‌های incredibly large آموزش داده می‌شوند، از جمله داده‌های اینترنت و برخی مجموعه داده‌های خصوصی‌تر یا اختصاصی. در حالی که روش‌های جمع‌آوری داده و آموزش بهبود یافته است، عرضه‌کنندگان هوش مصنوعی و مدل‌های آنها اغلب در آموزش خود یا فرآیندهای الگوریتمی که برای تولید پاسخ استفاده می‌کنند، شفاف نیستند.

برای رسیدگی به این موضوع، بسیاری از شرکت‌های هوش مصنوعی تولیدکننده، به ویژه خط مشی‌های حفظ حریم خصوصی و استانداردهای جمع‌آوری و ذخیره‌سازی داده‌های خود را به‌روزرسانی کرده‌اند. برخی دیگر، مانند Anthropic و Google، برای توسعه و انتشار تحقیقاتی شفاف تلاش کرده‌اند که نشان می‌دهد آن‌ها چگونه در حال تلاش برای گنجاندن شیوه‌های هوش مصنوعی قابل توضیح‌تر در مدل‌های هوش مصنوعی خود هستند، که این امر باعث بهبود شفافیت و استفاده اخلاقی از داده‌ها در همه زمینه‌ها می‌شود.

 

تأثیر هوش مصنوعی بر قوانین و مقررات حریم خصوصی

بسیاری از قوانین و مقررات حریم خصوصی هنوز به طور مستقیم به هوش مصنوعی و چگونگی استفاده از آن یا نحوه استفاده از داده‌ها در مدل‌های هوش مصنوعی نمی‌پردازند. در نتیجه، شرکت‌های هوش مصنوعی آزادی عمل زیادی برای انجام هر کاری که می‌خواهند، داشته‌اند. این امر منجر به معضلات اخلاقی مانند سرقت مالکیت فکری، ویدیوهای جعلی (دیپ‌فیک)، افشای داده‌های حساس در نقض‌های امنیتی یا مجموعه داده‌های آموزشی، و مدل‌های هوش مصنوعی شده است که به نظر می‌رسد بر اساس تعصبات پنهان یا اهداف مخرب عمل می‌کنند.

نهادهای نظارتی بیشتری هم دولتی و هم خاص صنعت تهدیدی را که هوش مصنوعی ایجاد می‌کند، به رسمیت می‌شناسند و قوانین و مقررات حفظ حریم خصوصی را تدوین می‌کنند که به طور مستقیم به مسائل هوش مصنوعی می‌پردازد. انتظار می‌رود در ماه‌ها و سال‌های آینده مقررات منطقه‌ای، خاص صنعت و خاص شرکت بیشتری اعمال شود که بسیاری از آن‌ها از «قانون هوش مصنوعی اتحادیه اروپا» به عنوان الگویی برای نحوه‌ی محافظت از حریم خصوصی مصرف‌کنندگان پیروی می‌کنند.

درک و آگاهی عمومی از مسائل حریم خصوصی هوش مصنوعی

از زمان انتشار ChatGPT، عموم مردم دانش اولیه و علاقه‌ای به فناوری‌های هوش مصنوعی پیدا کرده‌اند. با وجود هیجان، نگرش عموم مردم نسبت به فناوری هوش مصنوعی به ویژه در رابطه با حریم خصوصی هوش مصنوعی  ترسناک است.

بسیاری از مصرف‌کنندگان به انگیزه‌های شرکت‌های بزرگ هوش مصنوعی و فناوری اعتماد ندارند و نگران هستند که داده‌های شخصی و حریم خصوصی آنها توسط این فناوری به خطر بیفتد. ادغام، تملیک و مشارکت‌های مکرر در این حوزه می‌تواند منجر به انحصارات نوظهور شود و ترس از قدرتی که این سازمان‌ها دارند، وجود دارد.

بر اساس نظرسنجی انجام شده توسط انجمن بین‌المللی متخصصان حریم خصوصی در سال ۲۰۲۳، ۵۷ درصد از مصرف‌کنندگان می‌ترسند که هوش مصنوعی تهدیدی جدی برای حریم خصوصی آنها باشد، در حالی که ۲۷ درصد نسبت به هوش مصنوعی و مسائل مربوط به حریم خصوصی بی‌نظر هستند. تنها ۱۲ درصد با این موضوع که هوش مصنوعی به طور قابل توجهی به حریم خصوصی شخصی آنها آسیب می‌زند، مخالف بودند.

 

نمونه‌های واقعی از مسائل هوش مصنوعی و حریم خصوصی

در حالی که چندین نقض امنیتی قابل توجه و با تبلیغات گسترده با فناوری هوش مصنوعی و داده‌های مربوط به آن وجود داشته است، بسیاری از فروشندگان و صنایع گام‌های مهمی در جهت محافظت بهتر از داده‌ها برمی‌دارند. ما در مثال‌های زیر هم به شکست‌ها و هم به موفقیت‌ها می‌پردازیم.

مسائل پررنگ حریم خصوصی با هوش مصنوعی

در اینجا برخی از مهم‌ترین نقض‌ها و سوء استفاده‌های حریم خصوصی که مستقیماً با فناوری هوش مصنوعی در چند سال گذشته درگیر بوده‌اند، آورده شده است:

  • مایکروسافت: اعلامیه اخیر این شرکت در مورد ویژگی فراخوان ( (Recall) که به رهبران کسب و کار اجازه می دهد تا اسکرین شات های فعالیت کاربران را از دستگاه های خود جمع آوری، ذخیره و بررسی کنند، به دلیل فقدان عناصر طراحی حریم خصوصی و همچنین مشکلات اخیر شرکت با نقض های امنیتی، با مخالفت قابل توجهی روبرو شد. مایکروسافت اکنون به کاربران این امکان را می دهد که به راحتی از این فرآیند انصراف دهند یا در آن شرکت کنند و قصد دارد با رمزگشایی به موقع و پایگاه داده های فهرست جستجوی رمزگذاری شده، حفاظت از داده ها را بهبود بخشد.
  • OpenAI: OpenAI در مارس ۲۰۲۳ اولین قطعی بزرگ خود را به دلیل باگی تجربه کرد که داده‌های تاریخچه چت کاربران خاص را در معرض دید کاربران دیگر قرار داد و حتی برای مدت زمانی اطلاعات پرداخت و سایر اطلاعات شخصی را در معرض دید کاربران غیرمجاز قرار داد.
  • گوگل: یک کارمند سابق گوگل برای به اشتراک گذاشتن با جمهوری خلق چین، اسرار تجاری و داده‌های هوش مصنوعی را به سرقت برد. در حالی که این موضوع لزوما بر حریم خصوصی داده‌های شخصی تأثیر نمی‌گذارد، اما پیامدهای دسترسی کارمندان شرکت‌های هوش مصنوعی و فناوری به این نوع اطلاعات نگران‌کننده است.

پیاده‌سازی‌های موفق هوش مصنوعی با محافظت‌های قوی از حریم خصوصی

بسیاری از شرکت‌های هوش مصنوعی در حال نوآوری برای ایجاد فناوری‌های هوش مصنوعی با «حریم خصوصی در طراحی» هستند که به کسب‌وکارها و مصرف‌کنندگان به طور یکسان سود می‌رساند، از جمله موارد زیر:

  • Anthropic: به ویژه با آخرین مدل Claude 3 خود، Anthropic به رشد رویکرد هوش مصنوعی قانون اساسی خود که باعث افزایش ایمنی و شفافیت مدل می‌شود، ادامه داده است. این شرکت همچنین از یک سیاست مقیاس‌گذاری مسئولانه پیروی می‌کند تا به طور منظم عملکرد مدل‌های خود را در برابر معیارهای مهم اخلاقی مانند بیولوژیکی، سایبری و سایر موارد آزمایش کند و با عموم به اشتراک بگذارد.
  • MOSTLY AI: این شرکت یکی از چندین فروشنده هوش مصنوعی است که فناوری جامع تولید داده مصنوعی را توسعه داده است که از داده‌های اصلی در برابر استفاده و افشای غیرضروری محافظت می‌کند. این فناوری به ویژه برای توسعه، اشتراک داده، آزمایش و تضمین کیفیت مسئولانه هوش مصنوعی و یادگیری ماشین مناسب است.
  • Glean: Glean که امروزه یکی از محبوب‌ترین راه‌حل‌های جستجوی سازمانی هوش مصنوعی در بازار است، با محوریت امنیت و حریم خصوصی طراحی شده است. ویژگی‌های آن شامل امنیت بدون اعتماد و لایه اعتماد، احراز هویت کاربر، اصل حداقل امتیاز، انطباق با GDPR و رمزگذاری داده‌ها در حالت سکون و انتقال است.
  • Hippocratic AI: این محصول هوش مصنوعی تولیدکننده که به طور خاص برای خدمات مراقبت‌های بهداشتی طراحی شده است، با HIPAA مطابقت دارد و توسط پرستاران، پزشکان، سیستم‌های بهداشتی و شرکای پرداخت‌کننده به طور گسترده مورد پذیرش قرار گرفته است تا اطمینان حاصل شود که حریم خصوصی داده‌ها محافظت می‌شود و از داده‌های بیمار برای ارائه مراقبت بهتر به صورت اخلاقی استفاده می‌شود.
  • Simplifai: Simplifai راه‌حلی برای پردازش اسناد و ادعاهای بیمه با پشتیبانی هوش مصنوعی است که به طور صریح رویکرد «حریم خصوصی در طراحی» را برای محافظت از داده‌های مالی حساس مشتریان خود دنبال می‌کند. شیوه‌های حفظ حریم خصوصی آن شامل پنهان سازی داده‌ها، زمان ذخیره‌سازی محدود و حذف منظم داده‌ها، اجزای امنیتی و فناوری پلتفرم، شبکه و داده‌های داخلی، حذف داده‌های هدایت‌شده توسط مشتری، رمزگذاری داده‌ها و استفاده از مراکز داده منطقه‌ای است که مطابق با انتظارات منطقه‌ای عمل می‌کنند.

بهترین شیوه‌ها برای مدیریت مسائل هوش مصنوعی و حریم خصوصی

در حالی که هوش مصنوعی مجموعه‌ای از مسائل چالش‌برانگیز مربوط به حریم خصوصی را ارائه می‌دهد، شرکت‌ها می‌توانند با استفاده از بهترین شیوه‌هایی مانند تمرکز بر مدیریت داده‌ها، تدوین خط‌مشی‌های استفاده مناسب و آموزش همه ذینفعان، بر این نگرانی‌ها غلبه کنند.

سرمایه‌گذاری روی ابزارهای مدیریت و امنیت داده‌ها

برخی از بهترین راه‌حل‌ها برای محافظت از ابزارهای هوش مصنوعی و سایر سطوح حمله شما شامل تشخیص و پاسخگویی گسترده ( (XDR، جلوگیری از دست دادن داده‌ها و نرم‌افزار نظارت و هوش تهدید است. تعدادی از ابزارهای خاص مدیریت داده‌ها نیز وجود دارند که به شما در محافظت از داده‌ها و اطمینان از مطابقت تمام استفاده‌های داده با مقررات مربوطه کمک می‌کنند.

ایجاد یک خط مشی استفاده مناسب برای هوش مصنوعی

کاربران داخلی کسب‌وکار باید هنگام استفاده از ابزارهای هوش مصنوعی بدانند که از چه داده‌هایی می‌توانند استفاده کنند و چگونه باید از آنها استفاده کنند. این امر به ویژه برای سازمان‌هایی که با داده‌های حساس مشتری مانند اطلاعات پزشکی محافظت‌شده (PHI) و اطلاعات پرداخت کار می‌کنند، بسیار مهم است.

مطالعه ریز متن

فروشندگان هوش مصنوعی معمولاً نوعی اسناد یا خط مشی را ارائه می‌دهند که نحوه عملکرد محصولات آنها و اصول اولیه نحوه آموزش آنها را پوشش می‌دهد. این اسناد را با دقت بخوانید تا هر گونه هشدار را شناسایی کنید، و اگر چیزی مطمئن نیستید یا در اسناد خط مشی آنها ذکر شنده، برای روشن شدن با نماینده‌ای تماس بگیرید.

فقط از داده‌های غیرحساس استفاده کنید

به عنوان یک قاعده کلی، حساس‌ترین داده‌های کسب‌وکار یا مشتریان خود را حتی در یک ابزار هوش مصنوعی، حتی اگر یک راه‌حل سفارشی یا دقیق باشد که به نظر خصوصی می‌رسد، وارد نکنید. اگر مورد استفاده خاصی را می‌خواهید دنبال کنید که شامل داده‌های حساس است، تحقیق کنید که آیا راهی برای تکمیل ایمن عملیات با دوقلوهای دیجیتال، ناشناس‌سازی داده‌ها یا داده‌های مصنوعی وجود دارد یا خیر.

آموزش ذینفعان و کاربران در مورد حریم خصوصی

ذینفعان و کارمندان سازمان شما باید هم آموزش عمومی و هم آموزش خاص نقش برای چگونگی، زمان و چرایی استفاده از فناوری‌های هوش مصنوعی در کارهای روزانه خود دریافت کنند. آموزش باید یک ابتکار مستمر باشد که بر تجدید دانش عمومی و گنجاندن اطلاعات در مورد فناوری‌های نوظهور و بهترین شیوه‌ها تمرکز دارد.

تقویت ویژگی‌های امنیتی داخلی

تقویت ویژگی‌های امنیتی داخلی

هنگام توسعه و انتشار مدل‌های هوش مصنوعی برای استفاده عمومی‌تر، باید در تمام مراحل توسعه و بهینه‌سازی چرخه عمر مدل، برای محافظت از داده‌های کاربر تلاش کنید. برای بهبود ویژگی‌های امنیتی مدل خود، به‌شدت روی داده‌ها تمرکز کنید، و شیوه‌هایی مانند پنهان‌سازی داده‌ها، ناشناس‌سازی داده‌ها و استفاده از داده‌های مصنوعی را افزایش دهید؛ همچنین سرمایه‌گذاری روی مجموعه ابزارهای امنیتی سایبری جامع‌تر و مدرن‌تر برای محافظت، مانند پلتفرم‌های نرم‌افزاری تشخیص و پاسخگویی گسترده (XDR) را در نظر بگیرید.

اجرای پیشگیرانه اقدامات نظارتی سختگیرانه‌تر

قانون هوش مصنوعی اتحادیه اروپا و مقررات کلی مشابه در حال ظهور هستند، اما حتی قبل از اجرای این قوانین، توسعه‌دهندگان هوش مصنوعی و رهبران کسب‌وکار باید نحوه استفاده از مدل‌های هوش مصنوعی و داده‌ها را تنظیم کنند. خط‌مشی‌های استفاده از داده‌های واضح را تعیین و اجرا کنید، برای کاربران راه‌حلی برای اشتراک‌گذاری بازخورد و نگرانی‌ها فراهم کنید و در نظر بگیرید که چگونه هوش مصنوعی و داده‌های آموزشی مورد نیاز آن را می‌توان بدون خدشه‌دار کردن مقررات خاص صنعت یا انتظارات مصرف‌کنندگان استفاده کرد.

بهبود شفافیت در استفاده از داده

افزایش شفافیت در استفاده از داده  که شامل شفافیت بیشتر در مورد منابع داده، روش‌های جمع‌آوری و روش‌های ذخیره‌سازی است یک رویه تجاری خوب در همه جا است. این به مشتریان هنگام استفاده از ابزارهای شما اعتماد بیشتری می‌دهد، نقشه‌ها و اطلاعات لازم را برای گذراندن بازرسی داده یا انطباق برای فروشندگان هوش مصنوعی فراهم می‌کند و به توسعه‌دهندگان و فروشندگان هوش مصنوعی کمک می‌کند تصویری واضح‌تر از کاری که با هوش مصنوعی انجام می‌دهند و نقشه راهی که قصد دارند در آینده دنبال کنند، ایجاد کنند.

کاهش دوره‌های ذخیره‌سازی داده

هر چه داده‌ها برای مدت طولانی‌تری در مخزن شخص ثالث یا مدل هوش مصنوعی (به ویژه مدل‌هایی با حفاظت‌های امنیتی محدود) ذخیره شوند، احتمال بیشتری وجود دارد که این داده‌ها قربانی نقض یا بازیگری مخرب شوند. عمل ساده کاهش دوره‌های ذخیره‌سازی داده به تنها مقدار دقیق زمانی که برای آموزش و تضمین کیفیت لازم است، به محافظت از داده‌ها در برابر دسترسی غیرمجاز کمک می‌کند و به مصرف‌کنندگان آسودگی خاطر بیشتری می‌دهد، زمانی که متوجه می‌شوند این خط‌مشی ذخیره‌سازی داده‌های کاهش‌یافته اعمال شده است.

اطمینان از انطباق با قوانین حق تکثیر و مالکیت فکری

در حالی که مقررات فعلی برای نحوه‌ی گنجاندن دارایی‌های مالکیت فکری و دارای حق تکثیر توسط هوش مصنوعی در بهترین حالت مبهم هستند، اگر فروشندگان هوش مصنوعی منابع خود را از همان ابتدا بررسی کنند، شهرت خود را بهبود می‌بخشند (و برای مقررات قریب‌الوقوع بهتر آماده می‌شوند). به طور مشابه، کاربران تجاری ابزارهای هوش مصنوعی باید در بررسی اسنادی که فروشندگان هوش مصنوعی در مورد نحوه‌ی تهیه‌ی داده‌هایشان ارائه می‌دهند، کوشا باشند. اگر در مورد استفاده از مالکیت فکری سؤال یا نگرانی دارید، باید بلافاصله با آن فروشنده تماس بگیرید یا حتی استفاده از آن ابزار را متوقف کنید.

نتیجه‌گیری: رسیدگی به مسائل هوش مصنوعی و حریم خصوصی ضروری است

ابزارهای هوش مصنوعی انواع تسهیلات جدید را برای مشاغل و مصرف‌کنندگان عادی ارائه می‌دهند، از اتوماسیون وظیفه و پرسش و پاسخ هدایت‌شده گرفته تا طراحی محصول و برنامه‌نویسی. در حالی که این ابزارها می‌توانند زندگی ما را ساده‌تر کنند، اما خطر نقض حریم خصوصی افراد را نیز به گونه‌ای به همراه دارند که می‌تواند به شهرت فروشنده، اعتماد مصرف‌کننده، امنیت سایبری و انطباق با مقررات آسیب برساند.

استفاده مسئولانه از هوش مصنوعی به روشی که از حریم خصوصی کاربر محافظت کند، مستلزم تلاش بیشتری است، با این حال، با در نظر گرفتن اینکه چگونه نقض حریم خصوصی می‌تواند بر تصویر عمومی یک شرکت تأثیر بگذارد، ضروری است. به‌ویژه با رشد این فناوری و فراگیر شدن آن در زندگی روزمره ما، پیروی از قوانین هوش مصنوعی در زمان تصویب و توسعه بهترین شیوه‌های خاص استفاده از هوش مصنوعی که با فرهنگ سازمان و انتظارات حفظ حریم خصوصی مشتریان مطابقت دارد، ضروری است.

 

به این پست امتیاز بدید

https://www.eweek.com/artificial-intelligence/ai-privacy-issues/

نظرات در مورد : هوش مصنوعی و حریم خصوصی: چالش ها، راه حل ها و بهترین روش ها

0 دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *