Facebook آموزش ارتش مخرب رباتها به تحقیقات ضد هرزنامه روش

با وجود Facebook بسیاری از تلاش های بد بازیگران همیشه به نحوی موفق به نفوذ از طریق آن تدابیر و سیاست. این شبکه اجتماعی در حال حاضر با تجربه یک راه جدید برای حفاظت از خود را ضد اسپم و دیوار و پیشدستی در برابر بد رفتار است که به طور بالقوه می تواند نقض در: ارتش رباتها.

Facebook می گوید آن را در حال توسعه یک سیستم جدید از رباتها که می تواند به شبیه سازی رفتارهای بد و استرس آزمون پلت فرم آن به زیرخاک در اوردن هر گونه نقص و ضعف. این رباتها خودکار آموزش و تدریس چگونه به عمل مانند یک فرد واقعی در گنج از رفتار مدل Facebook به دست آورد تا از آن بیش از دو میلیارد کاربران است.

برای اطمینان از این آزمایش دخالت نمی کنیم با کاربران Facebook نیز ساخته شده است یک نوع موازی نسخه از آن در شبکه های اجتماعی است. در اینجا رباتها هستند اجازه دهید شل و مجاز به اجرای شایع — آنها می توانند به یکدیگر پیام ارسال نظر در ساختگی پست ارسال درخواست دوستان بازدید صفحات و مطلب. از همه مهمتر این هوش مصنوعی رباتها در حال برنامه ریزی برای شبیه سازی حالات شدید مانند فروش مواد مخدر و اسلحه به تست چگونه Facebook را الگوریتم می خواهم سعی کنید برای جلوگیری از آنها را.

Facebook ادعا می کند این سیستم جدید می تواند میزبان “هزاران و یا حتی میلیون ها نفر از رباتها”. پس از آن اجرا می شود در همان کد در واقع کاربران تجربه آن را اضافه می کند که “رباتها’ اقدامات وفادار به اثر خواهد بود که شاهد واقعی مردم با استفاده از پلت فرم.”

“در حالی که این پروژه در یک تحقیق تنها مرحله در این لحظه این امید که یک روز از آن خواهد شد کمک به ما در بهبود خدمات ما و نقطه بالقوه قابلیت اطمینان و یا مسائل مربوط به تمامیت قبل از آنها تاثیر واقعی مردم با استفاده از پلت فرم.” نوشت: این پروژه منجر علامت هارمن در یک پست وبلاگ.

معلوم نیست در حال حاضر چگونه موثر Facebook جدید شبیه سازی محیط زیست خواهد بود. به عنوان هارمن ذکر شده, آن را هنوز هم در جای مراحل اولیه است و این شرکت نشده و قرار دادن هر یک از نتایج آن برای استفاده عمومی رو به روز رسانی فقط رتبهدهی نشده است. در طول چند سال گذشته در این شبکه اجتماعی به طور فعال سرمایه گذاری و حمایت هوش مصنوعی-بر اساس تحقیقات به منظور توسعه ابزارهای جدید برای مبارزه با آزار و اذیت و دادن. در آن سالانه کنفرانس توسعه دو سال پیش Mark Zuckerburg اعلام کرده بود این شرکت در حال ساخت هوش مصنوعی ابزار برای مقابله با پستهایی که از ویژگی های تروریستی محتوای سخنرانی نفرت دادن و بیشتر.

ویراستاران’ توصیه های

tinyurlis.gdv.gdv.htclck.ruulvis.netshrtco.de

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>