دو مدیران گوگل در روز جمعه گفت که تعصب در هوش مصنوعی است که در حال حاضر صدمه زدن به جوامع به حاشیه رانده شده در امریکا که بیشتر باید انجام شود تا اطمینان حاصل شود که این اتفاق نمی افتد. X. Eyeé توسعه منجر مسئول نوآوری در گوگل و آنجلا ویلیامز مدیر سیاست در گوگل در صحبت (نه IRL) غرور اجلاس یک رویداد سازمان یافته توسط, لزبین, Tech & Allies, بزرگترین فن آوری متمرکز LGBTQ سازمان برای زنان غیر دودویی و ترانس مردم در سراسر جهان است.
در مذاکرات جداگانه آنها خطاب به راه است که در آن یادگیری ماشین فن آوری می توان به آسیب زدن به سیاه و سفید جامعه و جوامع دیگر در آمریکا — و بیشتر به طور گسترده ای در سراسر جهان است.
بایاس در الگوریتم است و نه فقط یک دیتا مشکل است. انتخاب به استفاده از هوش مصنوعی می تواند مغرضانه راه الگوریتم یاد می گیرد می تواند مغرضانه و راه کاربران نهفته/تعامل با/درک یک سیستم می تواند تقویت تعصب! پرداخت @timnitGebru کار برای کسب اطلاعات بیشتر!
&کارها را می توانید; X. Eyeé ???????? (@TechWithX) 26 ژوئن 2020
ویلیامز در مورد استفاده از A. I. به صورت گسترده نظارت نقش آن در بیش از پلیس و اجرای آن به صورت مغرضانه صدور حکم است. "[از آن] نیست که تکنولوژی نژادپرست است اما ما می توانید کد خود ما ناخودآگاه تمایل به تکنولوژی" او گفت:. ویلیامز برجسته مورد رابرت Julian-Borchak ویلیامز یک آمریکایی آفریقایی تبار از دیترویت بود که به تازگی به اشتباه دستگیر و پس از یک سیستم تشخیص صورت اشتباه همسان عکس خود را با امنیت فیلم از یک دزد. مطالعات قبلی نشان داده اند که در صورت به رسمیت شناختن سیستم می تواند در تلاش برای تمایز بین مختلف مردم سیاه و سفید. "این جایی است که A. I. ... نظارت می تواند وحشتناکی اشتباه در دنیای واقعی" ویلیامز گفت.
X. Eyeé همچنین در مورد چگونه A. I. کمک می کند "مقیاس و تقویت ناعادلانه تعصب." در علاوه بر این به بیشتر شبه dystopian توجه گرفتن با استفاده از A. I. Eyeé متمرکز در راه است که در آن تعصب می تواند خزش به بیشتر به ظاهر دنیوی و روزمره با استفاده از فن آوری — از جمله خود گوگل ابزار. "در گوگل ما هیچ غریبه ای به این چالش ها" Eyeé گفت. "در سال های اخیر ... بوده ایم در سرفصل چندین بار برای چگونه الگوریتم های ما باید منفی نهفته مردم است." برای مثال گوگل توسعه داده است یک ابزار برای طبقه بندی مواد از نظر آنلاین. در حالی که این می تواند بسیار مفید آن را نیز مشکل ساز: عباراتی مانند "من یک گی زن" در ابتدا طبقه بندی شده به عنوان سمی تر از "من یک مرد سفید پوست." این بود که با توجه به شکاف در داده های آموزشی مجموعه های بیشتر مکالمات در مورد برخی هویت بیش از دیگران است.
وجود دارد هیچ فراگیر رفع این مشکلات دو گوگل مدیران گفت. هر جا که مشکل یافت می شود, گوگل با این نسخهها کار به آهن از تعصب. اما دامنه بالقوه مکان های که در آن تعصب می توانید وارد سیستم — از طراحی الگوریتم به استقرار خود را به اجتماعی متن زیر که اطلاعات تولید شده است — به این معنی است که همیشه وجود خواهد داشت مشکل ساز نمونه. کلیدی است برای آگاهی از این اجازه می دهد تا این ابزار به دقت مورد بررسی قرار گرفته و برای جوامع مختلف قادر به ایجاد صدای آنها شنیده می شود در مورد استفاده از این فن آوری.
ویراستاران' توصیه های
مقالات مشابه
- الفبای همکاران با کتابخانه محلی برای ارائه کتاب به دانش آموزان
- باربری اسلامشهر چهاردانگه | بهترین و ارزانترین باربری اسلامشهر
- به معنای واقعی کلمه هیچ کس بهره از شخص ثالث برنامه های تحویل
- Arctic Sea Ice Hit a Scary Milestone
- گارانتی بدون استرس اسباب بازی
- رادار نافذ زمین نشان می دهد کل باستان روم شهر
- سطح دو دارای پاک FCC و می تواند راه اندازی زودتر از انتظار
- تولد مواد شیمیایی
- به روز رسانی کووید فلوریدا: 17٪ واکسن تقویت شده و بستری شدن در بیمارستان کمی تغییر کرده است
- شرکت صادرات و واردات کالاهای مختلف از جمله کاشی و سرامیک و ارائه دهنده خدمات ترانزیت و بارگیری دریایی و ریلی و ترخیص کالا برای کشورهای مختلف از جمله روسیه و کشورهای حوزه cis و سایر نقاط جهان - بازرگانی علی قانعی