متا از داده های شما برای آموزش مدل های هوش مصنوعی خود استفاده می کند
انتشار: تیر 01، 1403
بروزرسانی: 31 خرداد 1404

متا از داده های شما برای آموزش مدل های هوش مصنوعی خود استفاده می کند


هوش مصنوعی موضوع داغ عصر است. از راهروهای سوپرمارکت گرفته تا کنفرانس های فناوری، همه در مورد آن صحبت می کنند.

اگر شما هم مثل من هستید، اغلب در مورد پیشرفت های هوش مصنوعی هیجان زده هستید. اما چقدر حاضرید برای کمک به آن پیش بروید؟

من می دانم که عنوان این مقاله کمی غیرقابل قبول به نظر می رسد، اما متاسفم، این فقط واقعیت است.

هیچ راهی برای بیان زیبا وجود ندارد: پست های عمومی شما که در پلتفرم های متا، مانند فیس بوک و اینستاگرام به اشتراک گذاشته می شوند، برای آموزش مدل های هوش مصنوعی متا استفاده می شوند و شما نمی توانید به آنها بگویید که متوقف شوند.

چرا؟ زیرا هنگام ایجاد حساب کاربری خود در این پلتفرم ها با آن موافقت کردید.

می دانم، من معمولاً سیاست های حفظ حریم خصوصی رسانه های اجتماعی را هم نمی خوانم و تا همین اواخر نمی دانستم که متا می تواند این کار را انجام دهد.

اما آنها چه نوع داده هایی را جمع آوری می کنند؟

فقط من این را نمی گویم. در وب سایت متا، هر کسی می تواند بخواند:

همانطور که در ماه سپتامبر به اشتراک گذاشتیم، از اطلاعات آنلاین و دارای مجوز عمومی برای آموزش هوش مصنوعی در متا و همچنین اطلاعاتی که مردم به صورت عمومی در مورد محصولات و خدمات متا به اشتراک گذاشته اند استفاده می کنیم. این اطلاعات شامل مواردی مانند پست های عمومی یا عکس های عمومی و زیرنویس آنها می شود. همچنین ممکن است در آینده از اطلاعاتی که افراد به اشتراک می گذارند هنگام تعامل با ویژگی های هوش مصنوعی مولدمان، مانند هوش مصنوعی متا، یا با یک تجارت، برای توسعه و بهبود محصولات هوش مصنوعی خود استفاده کنیم.»

حالا شما به من بگویید که آیا عنوان کلیک طعمه است یا فقط یک واقعیت ناراحت کننده است. خوب، حداقل دلشان در مورد نخواندن پیام های خصوصی ما به هم می خورد.

اما هی، این حداقل چیزی است، درست است؟

اقدامات حریم خصوصی متا و کنترل کاربر

متا مدعی تعهد به حفظ حریم خصوصی است و یک فرآیند داخلی قوی بررسی حریم خصوصی ایجاد کرده است.

آنها می گویند که این شامل ارزیابی خطرات بالقوه حریم خصوصی و اجرای اقداماتی برای کاهش آنها می شود.

آنها تحت پنج ارزش اصلی عمل می کنند: حریم خصوصی و امنیت، انصاف و شمول، استحکام و ایمنی، شفافیت و کنترل، و حکمرانی و مسئولیت پذیری.

آیا به آنها اعتماد دارید؟

متا چه کاری می تواند با داده های شما انجام دهد؟

متا از اطلاعاتی که در پلتفرم هایش به اشتراک می گذارید برای تقویت مدل های هوش مصنوعی خود استفاده می کند.

این مدل ها که شامل ابزارهایی مانند Meta AI و AI Creative Tools هستند، برای بهبود تجربه کاربر طراحی شده اند. هدف آنها حل مشکلات پیچیده، ارائه پاسخ های بلادرنگ و اجازه دادن به بیان خلاقانه است.

هوش مصنوعی متا

این یعنی چی؟

داده های جمع آوری شده برای آموزش مدل های هوش مصنوعی برای درک روابط بین انواع مختلف محتوا استفاده می شود.

به عنوان مثال، مدل های متنی برای پیش بینی الگوهای زبان و ایجاد پاسخ های مکالمه آموزش داده می شوند. مدل های تصویر یاد می گیرند که تصاویر جدید را بر اساس ورودی های متن توصیفی ایجاد کنند.

آیا همه تحت آموزش هوش مصنوعی متا هستند؟

در واقع، همه افراد مشمول تغییر کاربری اطلاعات خود برای آموزش هوش مصنوعی نیستند.

اگر در بریتانیا، هر یک از کشورهای عضو اتحادیه اروپا (EU) یا منطقه اقتصادی اروپا (EEA) زندگی می کنید، از قوانین سختگیرانه تری برای حفاظت از داده ها بهره مند می شوید.

چرا؟ کسب وکارهای خارج از این مناطق، اما داده های شهروندان بریتانیا یا اتحادیه اروپا را پردازش می کنند، باید با قانون حفاظت از داده های بریتانیا (DPA) و مقررات عمومی حفاظت از داده های اتحادیه اروپا (GDPR) مطابقت داشته باشند.

بنابراین، اگر در بریتانیا یا اتحادیه اروپا زندگی می کنید، در ابتدا می توانید چند مرحله را در منوی «تنظیمات و حریم خصوصی» دنبال کنید تا از آموزش هوش مصنوعی متا انصراف دهید.

حالا، شما حتی نیازی به نگرانی در مورد آن ندارید. متا به دلیل تشدید مقررات اروپایی داده، آموزش مدل هوش مصنوعی خود را در اروپا به طور کامل متوقف کرده است.

آیا این یک گام به عقب برای نوآوری اروپایی است؟

به گفته متا، اینطور است. متا اعتراف کرد که ناامید شده است و وضعیت را اینگونه تعریف کرد: «(...) یک گام به عقب برای نوآوری اروپا، رقابت در توسعه هوش مصنوعی (که) باعث تاخیر بیشتر در رساندن مزایای هوش مصنوعی به مردم اروپا می شود.

CNIL مخالف است! سازمان حفاظت از داده های فرانسه اولین توصیه های خود را در مورد اعمال GDPR در توسعه سیستم هوش مصنوعی منتشر کرد. به گفته CNIL، همه چیز در مورد نوآوری در عین احترام به حقوق مردم است - چه مفهوم بدیعی، درست است؟

آنها مطمئن هستند که با دستورالعمل های صحیح، می توانیم کیک خود را بخوریم و آن را نیز بخوریم. ما می توانیم از مزایای هوش مصنوعی بدون زیر پا گذاشتن حریم خصوصی لذت ببریم.

اگر من در بریتانیا یا اتحادیه اروپا زندگی نکنم اما نمی خواهم متا از داده های من استفاده کند چه؟

برخی از افراد در رسانه های اجتماعی متا پست می گذارند و می گویند که اجازه نمی دهند از داده های آنها برای آموزش هوش مصنوعی استفاده شود.

چیزی مانند: «هی متا، من به شما اجازه انجام این کار را نمی دهم. متوقف کردن." و بدیهی است که همه چیز اینطور کار نمی کند.

همانطور که گفتم، ما شرایط را پذیرفتیم (حتی اگر آنها را نخوانده باشیم)، و هیچ راهی برای انصراف وجود ندارد.

اما همیشه "جاده ای که کمتر از آن طی شده" وجود دارد (رابرت فراست را کانالیزه می کند) - می توانید محتوای منتشر شده یا کل حساب خود را حذف کنید و مانند اینکاها زندگی کنید.

گزینه دیگر این است که همه چیز را روی خصوصی تنظیم کنید، زیرا شرایط فقط برای اطلاعات عمومی اعمال می شود. من این یکی را بیشتر دوست دارم

با این حال، اگرچه می توانید محتوا را حذف کنید یا حساب ها را خصوصی کنید، پاک کردن ردپای دیجیتالی شما چالش برانگیز است، به خصوص زمانی که دیگران ممکن است اطلاعاتی درباره شما به اشتراک بگذارند.

یک چیز کوچک که می توانید امتحان کنید

متا فرمی در مرکز حریم خصوصی خود به نام «حقوق موضوع داده برای اطلاعات شخص ثالث مورد استفاده برای هوش مصنوعی در متا» پنهان دارد. می توانید آن را پر کنید تا از متا بخواهید اطلاعات شخصی استفاده شده برای هوش مصنوعی خود را حذف کند.

اما، نکته مهم اینجاست - متا فقط به طور خودکار این کار را انجام نمی دهد. آنها درخواست ها را بررسی می کنند تا ببینند آیا طبق قوانین محلی برای حذف داده های شما الزامی است یا خیر.

برخی از افراد، مانند آلانا اسمیت، یک صاحب کسب و کار کوچک در تورنتو، این مسیر را امتحان کرده اند. او باید ثابت می کرد که داده هایش واقعاً توسط هوش مصنوعی متا استفاده شده اند، که به نوعی مانند اثبات اینکه گربه شما رئیس واقعی خانه نیست - تقریباً غیرممکن است!

اسمیت هرگز تاییدیه ای دریافت نکرد، بنابراین او در این فکر می ماند که آیا درخواست او انجام شده است یا خیر. و هنگامی که از او پرسیده شد، سخنگوی متا هیچ جزئیاتی در مورد اینکه چند نفر با موفقیت انصراف داده اند، ارائه نکرد.

بنابراین، با آن موفق باشید!

آیا یک راه خروج واقعی وجود دارد؟

بستگی به این دارد که شما چه راهی برای خروج در نظر می گیرید. اما، هی، آیا در مورد برنامه کارا شنیده اید؟

اپلیکیشن Cara یک پلتفرم شبکه اجتماعی جدید است که به طور خاص برای هنرمندان طراحی شده است تا کارهای خود را بدون ترس از استفاده از آن برای آموزش مدل های هوش مصنوعی به اشتراک بگذارند.

کارا خود را به عنوان یک پناهگاه امن برای خلاقان قرار می دهد. این تضمین می کند که تصاویر ارسال شده بر روی پلت فرم آن برای اهداف آموزشی هوش مصنوعی خراشیده نمی شوند.

کارا با پیاده سازی ویژگی هایی مانند برچسب های NoAI در همه پست ها به این مهم دست می یابد و به خراش کنندگان هوش مصنوعی سیگنال می دهد که از محتوا استفاده نکنند.

اگرچه ممکن است این برچسب ها در برابر داده کاوی کنندگان مصمم بی خطا نباشند، اما نشان دهنده گامی مهم در جهت حفاظت از آثار هنرمندان هستند.

آیا باید نگران اطلاعات خود باشید؟

خوب، بیایید اینجا واقعی شویم. آیا باید نگران استفاده متا از داده های شما برای آموزش مدل های هوش مصنوعی خود باشید؟

علیرغم ارزش های اصلی متا و اقدامات حفظ حریم خصوصی، نگرانی در مورد جمع آوری داده های شما برای آموزش هوش مصنوعی کاملاً قابل درک است.

مطمئناً، متا ویژگی های شفافیت و کنترل را ارائه می کند، اما بیایید صادق باشیم—مقدار بسیار زیاد داده ای که آنها جمع آوری می کنند می تواند کمی طاقت فرسا به نظر برسد.

نگرانی واقعی به تعادل بین کنترل و شفافیت در مقابل حجم وسیعی از داده هایی که متا جمع آوری و استفاده می کند خلاصه می شود.

از یک سو، مدل های هوش مصنوعی متا نوید برخی ویژگی های جالب و تجربه های کاربری بهتر را می دهند. اما از سوی دیگر، این به قیمت استفاده گسترده از داده های شخصی است.

و برای کسانی از ما خارج از مناطق حفاظت شده، انصراف از استفاده از داده برای آموزش هوش مصنوعی معمولاً یک گزینه نیست.

خب چی فکر می کنی؟ آیا این مبادله برای آن ویژگی های هوش مصنوعی خوب ارزشش را دارد یا اینکه ایده استفاده از داده های شما باعث می شود که بخواهید در عادات رسانه های اجتماعی خود تجدید نظر کنید؟