گوگل مدیران می گویند ما نیاز به یک طرح برای جلوگیری از A. I. الگوریتم از تقویت نژادپرستی

دو مدیران گوگل در روز جمعه گفت که تعصب در هوش مصنوعی است که در حال حاضر صدمه زدن به جوامع به حاشیه رانده شده

توسط DOSTEMANSALAM در 7 تیر 1399

دو مدیران گوگل در روز جمعه گفت که تعصب در هوش مصنوعی است که در حال حاضر صدمه زدن به جوامع به حاشیه رانده شده در امریکا که بیشتر باید انجام شود تا اطمینان حاصل شود که این اتفاق نمی افتد. X. Eyeé توسعه منجر مسئول نوآوری در گوگل و آنجلا ویلیامز مدیر سیاست در گوگل در صحبت (نه IRL) غرور اجلاس یک رویداد سازمان یافته توسط, لزبین, Tech & Allies, بزرگترین فن آوری متمرکز LGBTQ سازمان برای زنان غیر دودویی و ترانس مردم در سراسر جهان است.

در مذاکرات جداگانه آنها خطاب به راه است که در آن یادگیری ماشین فن آوری می توان به آسیب زدن به سیاه و سفید جامعه و جوامع دیگر در آمریکا — و بیشتر به طور گسترده ای در سراسر جهان است.

ویلیامز در مورد استفاده از A. I. به صورت گسترده نظارت نقش آن در بیش از پلیس و اجرای آن به صورت مغرضانه صدور حکم است. "[از آن] نیست که تکنولوژی نژادپرست است اما ما می توانید کد خود ما ناخودآگاه تمایل به تکنولوژی" او گفت:. ویلیامز برجسته مورد رابرت Julian-Borchak ویلیامز یک آمریکایی آفریقایی تبار از دیترویت بود که به تازگی به اشتباه دستگیر و پس از یک سیستم تشخیص صورت اشتباه همسان عکس خود را با امنیت فیلم از یک دزد. مطالعات قبلی نشان داده اند که در صورت به رسمیت شناختن سیستم می تواند در تلاش برای تمایز بین مختلف مردم سیاه و سفید. "این جایی است که A. I. ... نظارت می تواند وحشتناکی اشتباه در دنیای واقعی" ویلیامز گفت.

X. Eyeé همچنین در مورد چگونه A. I. کمک می کند "مقیاس و تقویت ناعادلانه تعصب." در علاوه بر این به بیشتر شبه dystopian توجه گرفتن با استفاده از A. I. Eyeé متمرکز در راه است که در آن تعصب می تواند خزش به بیشتر به ظاهر دنیوی و روزمره با استفاده از فن آوری — از جمله خود گوگل ابزار. "در گوگل ما هیچ غریبه ای به این چالش ها" Eyeé گفت. "در سال های اخیر ... بوده ایم در سرفصل چندین بار برای چگونه الگوریتم های ما باید منفی نهفته مردم است." برای مثال گوگل توسعه داده است یک ابزار برای طبقه بندی مواد از نظر آنلاین. در حالی که این می تواند بسیار مفید آن را نیز مشکل ساز: عباراتی مانند "من یک گی زن" در ابتدا طبقه بندی شده به عنوان سمی تر از "من یک مرد سفید پوست." این بود که با توجه به شکاف در داده های آموزشی مجموعه های بیشتر مکالمات در مورد برخی هویت بیش از دیگران است.

وجود دارد هیچ فراگیر رفع این مشکلات دو گوگل مدیران گفت. هر جا که مشکل یافت می شود, گوگل با این نسخهها کار به آهن از تعصب. اما دامنه بالقوه مکان های که در آن تعصب می توانید وارد سیستم — از طراحی الگوریتم به استقرار خود را به اجتماعی متن زیر که اطلاعات تولید شده است — به این معنی است که همیشه وجود خواهد داشت مشکل ساز نمونه. کلیدی است برای آگاهی از این اجازه می دهد تا این ابزار به دقت مورد بررسی قرار گرفته و برای جوامع مختلف قادر به ایجاد صدای آنها شنیده می شود در مورد استفاده از این فن آوری.

ویراستاران' توصیه های

آخرین مطالب