چند ترفند ساده برای آن که هوش مصنوعی، اطلاعات شما را ندزدد

به گزارش وبلاگ ساعتچی، در شرایطی که هوش مصنوعی با سرعتی روزافزون توسعه می یابد، با انجام چند ترفند ساده می توان جلوی دسترسی ابزارهای هوش مصنوعی را به داده های شخصی خود گرفت تا از آن ها برای آموزش های مدل های هوش مصنوعی استفاده نشود.

چند ترفند ساده برای آن که هوش مصنوعی، اطلاعات شما را ندزدد

هر محتوایی که در سطح اینترنت مشاهده می کنید، به احتمال زیاد جمع آوری شده و برای آموزش نسل کنونی هوش مصنوعی مولد مورداستفاده قرار گرفته است. مدل های زبان بزرگ مثل ChatGPT و ابزارهای فراورینمایندهٔ تصویر با انبوهی از داده های ما تغذیه می شوند. حتی اگر این داده ها برای ساخت چت بات به کار نروند، می توانند در ویژگی های دیگر یادگیری ماشین استفاده شوند.

به گزارش وبلاگ ساعتچی و به نقل از زومیت، شرکت های فناوری برای جمع آوری داده هایی که به گفته خودشان برای خلق هوش مصنوعی مولد ضروری اند، سرتاسر وب را با بی توجهی به حقوق مؤلفان، قوانین حق انتشار و حریم خصوصی کاربران، کاویده اند و از هر داده ای که به دست آورده اند، برای آموزش هوش مصنوعی استفاده نموده اند. شرکت هایی هم که انبوهی از اطلاعات کاربران را در اختیار دارند، در پی سهمی از سود صنعت هوش مصنوعی هستند.

بر اساس مقاله وایرد، اگر شما هم نگرانید که داده هایتان مورداستفادهٔ هوش مصنوعی قرار بگیرد، با ماه همراه شوید تا به آنالیز راهکارهای جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم. البته پیش از آن که به روش های جلوگیری از دسترسی هوش مصنوعی به اطلاعات خصوصی بپردازیم، بهتر است سطح انتظارات را در حد واقع بینانه نگه داریم. بسیاری از شرکت های توسعه دهندهٔ هوش مصنوعی از مدت ها قبل اقدام به جمع آوری گستردهٔ داده های وب نموده اند؛ بنابراین، احتمالاً هر آنچه تا امروز منتشر نموده اید، هم اکنون در سیستم های آن ها ذخیره شده است. این شرکت ها دربارهٔ اطلاعاتی که استخراج یا خریداری نموده اند، شفاف عمل نمی نمایند و اطلاعات ما در این زمینه بسیار مبهم است.

شرکت ها می توانند فرایند انصراف از استفادهٔ داده ها را برای آموزش هوش مصنوعی پیچیده نمایند. بسیاری از افراد دربارهٔ مجوزهایی که پذیرفته اند یا نحوهٔ به کارگیری داده ها، دید روشنی ندارند. این موضوع مربوط به قبل از زمانی است که به قوانین مختلف، مانند حمایت از حقوق مالکیت فکری و قوانین قدرتمند حفظ حریم خصوصی اروپا، توجه گردد. فیس بوک، گوگل و شرکت های دیگر، در اسناد مربوط به حریم خصوصی خود ذکر نموده اند که شاید از داده های شما برای آموزش هوش مصنوعی استفاده نمایند.

لیست زیر فقط شامل شرکت هایی می گردد که درحال حاضر راهکاری برای منع دسترسی آن ها به داده های شخصی کاربران برای آموزش مدل های هوش مصنوعی ارائه می دهند. ذخیره سازی فایل ها در سرویس های ابری، مزایای زیادی دارد؛ اما این فایل ها می توانند برای مقاصد دیگر نیز مورداستفاده قرار بگیرند. بر اساس اسناد شرکت هایی مانند ادوبی و آمازون، داده های ذخیره شده در فضای ابری آن ها می تواند برای آموزش الگوریتم های یادگیری ماشین به کار رود.

گوگل جمنای

اگر از چت بات گوگل جمنای (Gemini) استفاده می کنید، باید بدانید کارشناسان انسانی بعضی مکالمات شما را برای آنالیز و بهبود مدل هوش مصنوعی بازبینی می نمایند. به هرحال، می توانید این دسترسی را لغو کنید. بدین منظور جمنای را در مرورگر خود باز نموده، روی بخش Activity کلیک و سپس از منوی کشویی Turn Off را انتخاب کنید. در این قسمت، می توانید صرفاً فعالیت جمنای را غیرفعال کنید و یا با انتخاب گزینهٔ Delete data، هم دسترسی را لغو نموده و هم اطلاعات مکالمات گذشته را پاک کنید.

نکتهٔ مهم اینکه با غیرفعال سازی دسترسی جمنای به داده های شخصی خود، مکالمات آینده شما دیگر برای بازبینی در دسترس نخواهد بود، اما اطلاعات مکالمات قبلی که برای آنالیز انتخاب شده اند، همچنان تا سه سال نزد گوگل باقی خواهند ماند.

ChatGPT و DALL-E

هنگام استفاده از چت بات ها، ناخواسته اطلاعات شخصی زیادی را فاش می کنیم. OpenAI به عنوان توسعه دهندهٔ چت بات محبوب ChatGPT به کاربران اختیاراتی برای کنترل داده هایشان می دهد. این اختیار شامل جلوگیری از استفاده از اطلاعات برای آموزش مدل های هوش مصنوعی آینده می گردد.

طبق صفحات راهنمای OpenAI، کاربران وب ChatGPT که حساب کاربری ندارند، باید به بخش تنظیمات (Settings) مراجعه و گزینهٔ Improve the model for everyone را غیرفعال نمایند. اگر حساب کاربری دارید و به وسیله مرورگر وب وارد شده اید، باید به بخش ChatGPT بروید و سپس در مسیر Settings و Data Controls، گزینهٔ Chat History & Training را خاموش کنید. درصورتی که از اپلیکیشن های موبایل ChatGPT استفاده می کنید، به Settings مراجعه نموده و Data Controls را انتخاب کنید و درنهایت گزینهٔ Chat History & Training را خاموش کنید.

صفحات پشتیبانی OpenAI هشدار می دهند که تغییر تنظیمات دسترسی به داده های شخصی در مرورگر یا دستگاه خاص، روی سایر مرورگرها یا دستگاه های شما همگام سازی نمی گردد؛ بنابراین، باید این کار را در هرجایی که از ChatGPT استفاده می کنید، انجام دهید.

فعالیت های OpenAI فراتر از ChatGPT است. این استارتاپ برای ابزار فراوری تصویر Dall-E 3 نیز فرمی در نظر گرفته است که به شما امکان می دهد با ارسال آن، تصاویر موردنظر خود را از مجموعه داده های آموزشی آینده حذف کنید. در این فرم باید نام، ایمیل، مالکیت حق انتشار تصویر، جزئیات تصویر و اصل تصویر را آپلود کنید. OpenAI بعلاوه می گوید اگر حجم زیادی از تصاویر را به صورت آنلاین میزبانی می کنید که نمی خواهید برای آموزش داده ها استفاده شوند، شاید اضافه کردن GPTBot به فایل robots.txt وب سایت محل میزبانی تصاویر، روش کارآمدتری باشد.

Perplexity

Perplexity استارتاپی است که با استفاده از هوش مصنوعی در جست وجوی وب و یافتن پاسخ سؤالات به کاربران یاری می نماید. این ابزار مثل سایر نرم افزارهای مشابه، به صورت پیش فرض رضایت شما برای استفاده از تعاملات و داده هایتان را در جهت بهبود هوش مصنوعی خود دریافت می نماید. برای غیرفعال کردن این مورد، روی نام کاربری خود کلیک کنید، به بخش Account بروید و AI Data Retention را در حالت غیرفعال قرار دهید.

ادوبی

اگر از حساب کاربری شخصی ادوبی استفاده می کنید، غیرفعال کردن این قابلیت به سادگی امکان پذیر است. بدین منظور باید در صفحهٔ حریم خصوصی ادوبی به بخش Content analysis بروید و کلید مربوطه را خاموش کنید. برای حساب های تجاری یا آموزشی، این امکان به صورت مجزا برای تک تک کاربران وجود ندارد و برای غیرفعال سازی آن باید با مدیر سیستم تماس بگیرید.

وردپرس

وردپرس گزینه ای برای جلوگیری از اشتراک گذاری داده ها با سرویس های شخص ثالث دارد. برای فعال کردن این قابلیت، در پنل مدیریت وب سایت، روی Settings و بعدازآن General و سپس Privacy کلیک نموده و درنهایت تیک گزینهٔ Prevent third-party sharing را بزنید. سخنگوی Automattic می گوید: ما در حال همکاری با خزنده های وب ازجمله Common Crawl هستیم تا جلوی دسترسی و فروش غیرمجاز محتوای کاربران را بگیریم.

Grammarly

در حال حاضر، کاربران عادی گرمرلی (Grammarly) امکان لغو استفاده از داده هایشان را برای بهبود مدل یادگیری ماشین این سرویس ندارند. این امکان فقط برای حساب های تجاری (Business Account) در دسترس است که به صورت اتوماتیک قابل مدیریت بوده و نیازی به درخواست مستقیم کاربر ندارد.

برای لغو دسترسی گرمرلی در حساب های تجاری، به تنظیمات حساب کاربری (Account Settings) مراجعه، روی تب Data Settings کلیک و سپس گزینهٔ Product Improvement & Training را غیرفعال کنید. بعلاوه، حساب های تجاری تحت مدیریت مانند حساب های آموزشی و حساب های خریداری شده به وسیله نمایندهٔ فروش گرمرلی، به صورت اتوماتیک از فرایند آموزش مدل هوش مصنوعی مستثنی هستند.

Quora

Quora ادعا می نماید درحال حاضر از پاسخ ها، پست ها یا نظرات کاربران برای آموزش هوش مصنوعی استفاده نمی نماید. این شرکت بعلاوه هیچ گونه دادهٔ کاربری را برای آموزش هوش مصنوعی به فروش نمی رساند. به هرحالQuora هم گزینه ای برای انصراف از این موضوع در نظر گرفته است. برای این کار، به صفحهٔ Settings بروید، روی Privacy کلیک و سپس Allow large language models to be trained on your content را غیرفعال کنید.

البته امکان دارد Quora همچنان از بعضی پست های خاص برای آموزش مدل های زبان بزرگ (LLM) استفاده کند. صفحات راهنمای این شرکت شرح می دهند درصورتی که به پاسخ فراوریشده با هوش مصنوعی، پاسخ دهید، شاید اطلاعات آن، برای آموزش هوش مصنوعی مورداستفاده قرار گیرد. این شرکت اشاره می نماید که احتمال استخراج داده ها از طرف شرکت های متفرقه نیز وجود دارد.

Tumblr

شرکت Automattic، مالک وب سایت های Tumblr و WordPress.com، اعلام نموده که با همکاری شرکت های هوش مصنوعی میخواهد از مجموعه داده های بزرگ و منحصربه فرد محتوای منتشرشده در پلتفرم های خود برای آموزش هوش مصنوعی استفاده کند. سخنگوی این شرکت تأکید نموده است که ایمیل های کاربران و محتوای خصوصی شامل این همکاری نخواهد شد.

درصورتی که در Tumblr وبلاگ شخصی دارید، می توانید با مراجعه به Settings، انتخاب وبلاگ، کلیک روی آیکون چرخ دنده، رفتن به بخش Visibility و فعال کردن گزینهٔ Prevent third-party sharing مانع استفاده از محتوای خود برای آموزش هوش مصنوعی شوید. بعلاوه بر اساس صفحات پشتیبانی Tumblr، پست های صریح، وبلاگ های حذف شده و وبلاگ های دارای رمز عبور یا خصوصی به هیچ وجه با شرکت های دیگر به اشتراک گذاشته نمی شوند.

اسلک

شاید برایتان عجیب باشد، اما حتی همان پیغام های ردوبدل شدهٔ به ظاهر بی اهمیت در اسلک محل کارتان هم ممکن است برای آموزش مدل های این پلتفرم استفاده شوند. بر اساس گفتهٔ معاون بخش محصول اسلک، این پلتفرم از سالیان گذشته در محصولاتش از یادگیری ماشین برای ارائهٔ قابلیت هایی مثل پیشنهاد کانال و ایموجی استفاده می نماید.

اگرچه اسلک از داده های مشتریان برای آموزش مدل زبان بزرگ محصول هوش مصنوعی خود استفاده نمی نماید، اما می تواند از تعاملات شما برای بهبود قابلیت های یادگیری ماشینی نرم افزار بهره ببرد. درصورتی که از حساب سازمانی اسلک استفاده می کنید، امکان انصراف از این فرآیند وجود ندارد.

تنها راه برای لغو اشتراک اسلک، ارسال ایمیل از طرف مدیر سیستم به آدرس [email protected] است. موضوع ایمیل باید Slack Global model opt-out request باشد و URL سازمان نیز در آن درج گردد. اسلک هیچ جدول زمانی برای مدت زمان انجام فرایند لغو اشتراک ارائه نمی دهد، اما پس از تکمیل آن باید ایمیل تأیید برای شما ارسال کند.

وب سایت اختصاصی

اگر وب سایت اختصاصی خود را راه اندازی نموده اید، می توانید با به روزرسانی فایل robots.txt از ربات های هوش مصنوعی بخواهید صفحاتتان را کپی ننمایند. بسیاری از وب سایت های خبری اجازه نمی دهند ربات های هوش مصنوعی مقالاتشان را مرور نمایند. برای مثال، فایل robots.txt وب سایت WIRED اجازهٔ دسترسی به ربات های OpenAI، گوگل، آمازون، فیس بوک، Anthropic و Perplexity و بسیاری دیگر را نمی دهد.

این قابلیت صرفاً برای ناشران محتوا کاربرد ندارد. هر وب سایتی می تواند با اضافه کردن دستور disallow به فایل robots.txt، ربات های هوش مصنوعی را از دسترسی به سایت خود منع کند.

5454

منبع: خبرآنلاین

به "چند ترفند ساده برای آن که هوش مصنوعی، اطلاعات شما را ندزدد" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "چند ترفند ساده برای آن که هوش مصنوعی، اطلاعات شما را ندزدد"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید