آنچه شما می توانید و نمی توانید پست آنلاین است که تصمیم توسط الگوریتم در حال حاضر بیشتر از همیشه. تکنولوژی شرکت با تکیه بر هوش مصنوعی برای پوشش برای ده ها هزار انسان مدیران که قادر به کار از خانه در طول coronavirus همه گیر برای حفظ حریم خصوصی و امنیت ،

خودکار محتوای اعتدال است و فضائل آن: الگوریتم های سریع و ارزان است. اما آنها نیز به شدت در معرض خطا و می تواند اعمال تعصب در مقیاس گسترده است. بهمن اخیر شکست نشان می دهد که الگوریتم باید به سمت چپ نگه داشتن چرخ هنگامی که این بحران به پایان می رسد.

اتوماتیک سانسور متوقف مردم از به اشتراک گذاری اطلاعات کلیدی فقط به عنوان ویروس به دست آوردن footholds در سراسر جهان است. پیج ویلیامز تحریریه برای مجله ی نیویورکر سعی در پست قابل اعتماد و راهنمایی در مورد چگونه برای جلوگیری از گسترش ویروس در اواسط ماه مارس تنها به آن سانسور توسط Facebook به عنوان هرزنامه. در پاسخ به انتقاد از کمبود ماسک صورت برای کارگران پزشکی داوطلبان دوخته هزاران نفر از ماسک های خانگی و سعی کردم به کمک آنها در Facebook, تنها برای پیدا کردن خود را در “Facebook زندان”. این نرم افزار نمی تواند بگوید تفاوت بین نوع دوستی و تلاش برای سود حاصل از بحران تا کسانی که پست و reams اعم از دیگران به اشتباه سانسور و بسیاری از حساب های معلق در دسترس نباشد.

اتوماسیون ثابت کرده است که هیچ نوش دارو در برابر توقف خطرناک اطلاعات غلط از گسترش یا نه. آن موفق به توقف های از تئوری های توطئه ادعا یک (کاملا الکی) ارتباط بین coronavirus و 5G برج و همچنین به عنوان تبلیغات توصیه که مردم از نوشیدن آب ژاول.

این شکست به عنوان جای شگفتی نیست به هر کسی که مطالعه کرده است یا تلاش برای ساخت ابزارهای خودکار برای تشخیص نفرت و یا سوء استفاده از محتوا از جمله شرکت های کارکنان خود. به همین دلیل Facebook, Twitter و YouTube کاربران هشدار داد که آنها می تواند انتظار می رود تعداد زیادی از اشتباه takedowns – و تاخیر طولانی در گرفتن این اشتباهات اصلاح شود.

محتوای اعتدال می تواند به صورت خودکار با تعدادی از تکنیک های است که هر یک از آن متمایز محدودیت. ابزار مانند کلمه فیلتر و هش-مطابق با الگوریتم فقط می توانید پیدا کنید که قبلا شناسایی مواد برای جلوگیری و آیا زمینه به حساب آورد. ماشین-یادگیری, ابزار طراحی شده برای شناسایی و جدید نمونه هایی از محتوای متخلف نیاز به روت در نمونه های روشن از آنچه هست و نیست یک تخلف – دشوار است به انجام زمانی که فرم های ارتباطی تکامل به طور مداوم به عنوان آنها را با یا بدون یک بیماری همه گیر. Mike Schroepfer, Facebook ارشد تکنولوژی افسر نیویورک تایمز گفت در سال گذشته که این شرکت هوش مصنوعی بود که ساری تنها 51 درصد از نفرت سخنرانی بر روی پلت فرم.

بیان نفرت و سوء استفاده هستند به شدت سخت به تشخیص با نرم افزار پس از slickest الگوریتم در جهان نمی تواند تجزیه و تحلیل تفاوت های ظریف از انسان در ارتباط است. الگوریتم اغلب قادر به تمایز بین توهین و واقعی شوخی و یا از دست دادن بسیاری از راه های خلاق است که در آن مردم حمله و لکه دار کردن یک دیگر مانند تقلید الگوهای بیان دیگر ، انسان همیشه نمی دانند که چه افراد دیگر در چیست, اما آنها می تواند فرهنگی ، زبانی و بافت اجتماعی را در نظر میگیرد.

اما تعدیل محتوا می تواند عمیقا آسیب زا برای انسان کارگران که به صورت بی پایان جریان از بدترین که جامعه را ارائه کرده است که اغلب برای پرداخت هزینه کم و در شرایط کار. اتوماسیون نباید به عنوان یک جایگزین برای ارائه مناسب بهداشت روانی حمایت و غرامت عادلانه به مردم که اجرای پلت فرم قوانین.

برای جبران شناخته شده ضعف هوش مصنوعی چندین شرکت گفته اند که آنها نمی خواهد مجازات کاربران به طور دائم برای محتوا است که برداشته می شود به طور خودکار در طول بحران. خودکار حذف نمی خواهد برابر تعداد کاربران’ رکورد کلی از سوء رفتار در یک پلت فرم.

به عبارت دیگر اتوماسیون موقت است, ناقص, پاسخ به وضعیت های اضطراری است. شرکت ها باید به یاد داشته باشید که و دولت باید آن را درک بیش از حد. هر دو باید اطمینان حاصل شود که کنترل خودکار یا “فیلترینگ” نیست جدید تبدیل وضعیت موجود. اتحادیه اروپا در حال حاضر گرفته شده اخلال گام به سوی موظف فیلتر. در تابستان گذشته آن را تصویب کپی رایت بخشنامه که اساسا نیاز به محتوای تولید شده توسط کاربر سایت ها برای پیاده سازی “ها فیلتر” است که تلاش برای جلوگیری از بدون مجوز استفاده از حق کپی رایت کار می کند. اما تهاجمی کپی رایت فیلتر اغلب خطاهای اسناد و به طور معمول موفق به استفاده عادلانه به حساب آورد. فقط بپرسید ویولونیست که خود را بصورت زنده اتاق نشیمن تلاوت یک قطعه توسط J. S. Bach که کار شده است در حوزه عمومی برای قرن ها خاموش توسط Facebook به عنوان نقض کپی رایت.

در عین حال شرکت باید حفظ محتوای آنها مسدود کردن یا حذف به طوری که افرادی که بر این باورند پست های خود را و یا حساب به اشتباه سانسور می توانید درخواست تجدید نظر که انسان در دسترس هستند به نظر کسانی که تجدید نظر. انجام این کار نیز فعال محققان به بعد کشف خاص و سیستمیک تاثیر این اورژانس با استفاده از خودکار حذف. در حال حاضر ما نمی دانیم که موارد خودکار سانسور شد در همراهی با شرکت سیاست های, و, که اختلال در عملکرد الگوریتم خود را. بدون چنین درک آن غیر ممکن است به مفید نقد شرکت های که در آن آنها رسم خط.

شرکت های فن آوری کنترل بیشتر ارتباطات انسانی بیش از هر دولت و یا تا کنون است. در شرایط اضطراری و در زمان عادی آنها باید ورزش است که قدرت بسیار زیادی به عنوان منصفانه و شفاف به عنوان امکان پذیر است.

tinyurlis.gdv.gdv.htclck.rushrtco.de