Дізнайтеся Сумісність За Знаком Зодіаку
Вандалізм у Вікіпедії може перешкодити розкриттю обману в Google, YouTube і Facebook
Перевірка Фактів

На короткий момент Каліфорнійська Республіканська партія підтримала нацизм. Принаймні, так сказав Google.
Це тому, що 31 травня хтось розгромив сторінку партії у Вікіпедії, перерахувавши «нацизм» поруч із такими ідеологіями, як «консерватизм», «ринковий лібералізм» та «фіскальний консерватизм». Помилка була видалена з результатів пошуку Google уточнює Vice News що пошуковій системі не вдалося зловити вандалізм у записі Вікіпедії.
Якщо ви шукаєте «Каліфорнійські республіканці» в Google, Google перераховує «нацизм» як одну з ідеологій. pic.twitter.com/JblamxkyF7
— Ерік Вілсон (@ericwilson) 31 травня 2018 року
Google має давно тягнеться онлайн-енциклопедія для додавання основної інформації до результатів пошуку. Відповідно до журнал редагування для сторінки Каліфорнії GOP, хтось додав 'нацизм' до розділу з ідеологією партії близько 7:40 UTC 31 травня. Редагування було видалено за хвилину, але схоже, що алгоритм Google зняв сторінку якраз вчасно для фейку.
«Іноді люди вандалізують публічні джерела інформації, такі як Вікіпедія, що може вплинути на інформацію, яка з’являється в пошуку», — сказав Пойнтеру в електронному листі представник Google. «У нас є системи, які фіксують вандалізм до того, як він вплине на результати пошуку, але іноді помилки проходять, і ось що тут сталося».
Фонд Вікімедіа, некомерційна організація, яка керує Вікіпедією, також опублікувала заяву в Twitter.
Результати панелі знань Google виявили вандалізм з боку a @Wikipedia стаття сьогодні. Ось більше про те, що трапилося та як розглядають вандалізм у Вікіпедії. pic.twitter.com/fcoaK2DsXq
— Wikimedia (@Wikimedia) 1 червня 2018 року
За даними Google, понад 99,9% змін у Вікіпедії, які відображаються на панелях знань, які відображають основну інформацію про ключові слова для пошуку у верхній частині результатів, не є вандалізмом. Користувач, який створив оригінальне редагування сторінки Республіканської партії Каліфорнії не використовував профіль користувача , тому їх важко відстежити.
це поширена тактика серед людей, які вандалізують сторінки Вікіпедії, є практика некомерційної організації широко задокументовані . Але з огляду на обсяг редагування, внесених у Вікіпедію — приблизно 10 в секунду , з 600 новими сторінками на день — і той факт, що Facebook і YouTube тепер вилучають із них, щоб забезпечити більше контексту для публікацій, потенціал і наслідки зловживання є високими.
«Звичайно, це досить слабкий спосіб боротьби з фейковими новинами, оскільки Вікіпедія не є надійним джерелом інформації — як визнає навіть Вікіпедія», — сказав він. Магнус Фараон Хансен , докторант Копенгагенського університету, у повідомленні Пойнтеру. «Вікіпедія дуже вразлива до містифікацій і містить різного роду дезінформацію, тому це не дуже серйозний спосіб боротьби з проблемою сфабрикованих новин».
Хансен редагував сторінки Вікіпедії близько 10 років і сказав, що вандалізм є звичним явищем на платформі. Кількість редакторів зменшився в останні роки, в той час як онлайн партизани мають дедалі більше націлені на платформу — проблема, що дійшов до голови під час полеміки щодо Gamergate у 2014 році. По суті, це гра чисел.
Це далеко де Вікіпедія була в 2005 році , коли дослідження показало, що він був приблизно таким же точним, як Британіка. І це ускладнює для редакторів-добровольців боротьбу з вандалізмом у масштабах Вікіпедії, що не віщує нічого хорошого для її використання для боротьби з дезінформацією на інших платформах.
«Звичайно, у Вікіпедії є багато неправильної інформації, і багато з неї залишиться», – сказав Хансен. «Часто хтось пише статтю, і можуть пройти роки, перш ніж хтось прийде й відредагує її. Люди не перевіряють факти, якщо щось не здається не на місці».
один сфабрикована стаття у Вікіпедії прожив на сайті десять років, перш ніж його видалили в 2015 році.
У той же час платформа виявилася стійкою до тих видів містифікацій, які регулярно розповсюджуються Facebook і Twitter . Оцінки Вікімедіа що близько 2,5 відсотка щоденних редагування є вандалізмом, і Саманта Лієн, менеджер зі зв’язків з Вікімедіа, вказала на алгоритм, який автоматично позначає сумнівні редагування як ключовий успіх для його зусиль щодо цілісності.
«Статті, як правило, забезпечують збалансоване представлення фактів, і до цього моменту сайт виявився стійким до фейкових новин та дезінформації», — сказала вона Пойнтер у електронному листі. «Ми також працювали з редакторами-добровольцями протягом останніх кількох років, щоб створити та покращити інструменти модерації, щоб швидко виявляти вандалізм у Вікіпедії та боротися з ним».
Крім обмежень Вікіпедії, власні системи технологічних платформ часто стають предметом помилок і суперечок, особливо панелі знань.
Також 31 травня розшук сенатора-республіканця, який підтримує Дональда Трампа, у Північній Кароліні виникло зображення про неї з написом «fantastic» внизу. У січні The Daily Caller виявила, що Google неправильно додає перевірки фактів до свого вмісту, а не до вмісту інших ЗМІ. Це змусило технічну компанію призупинити цю функцію, поки вона не усуне помилки.
Google сказав Пойнтеру, що він не змінює вручну результати пошуку, щоб відображати перевагу однієї сторони перед іншою. Але в його алгоритми регулярно грають містифікації , підроблені оголошення і тролі, які прагнуть змінити результати пошуку. І ці проблеми можуть поширитися на інші платформи, які посилаються на Вікіпедію.
«Коли більше медіа-платформ некритично використовують контент з Вікіпедії, це підвищує ставки — як для тих, хто вводить в оману чи обман, так і для тих, хто поширює знання», — сказав Хансен. «Я думаю, зокрема з посиланням на Вікіпедію з відео YouTube про теорії змови, це може призвести до притягнення невідповідної аудиторії».
В березні, Оголосив YouTube що він посилатиметься безпосередньо на сторінки Вікіпедії в описах відео, щоб забезпечити більше контексту та розвінчати вірусні теорії змови, які часто стають вірусними після останніх новин. Ті «інформаційні підказки», які були введені на платформі без відома Вікіпедії — міститиме короткий рядок про джерело та посилання на його сторінку у Вікіпедії.
Ця функція ще не запроваджена, але YouTube представив подібну в лютому, яка надає більше контексту новинним організаціям, які отримують гроші від уряду США.

(Скріншот з YouTube)
Враховуючи підвищену видимість сторінок Вікіпедії, можна уявити, що вандали можуть стікатися на платформу, щоб троллювати кілька платформ за одне редагування.
«Злом Вікіпедії завжди був проблемою, але це була проблема, яка справді вплинула лише на читачів Вікіпедії. Тепер це ще більш небезпечно, оскільки платформи все частіше автоматично вилучаються з Вікіпедії», — сказала Клер Уордл, виконавчий директор First Draft, у електронному листі Пойнтеру. «Для агентів дезінформації, які хочуть максимального посилення, будь-яка техніка, яка гарантує, що платформи чи редакції повторюватимуть і, отже, узаконять брехню, забезпечує непропорційну «рентабельність інвестицій»».
Незважаючи на те, що Вікіпедія служить джерелом для більшої кількості платформ, Вікіпедія не спостерігає зростання вандалізму, сказав Лієн. Але, бачачи, як доповнення застали організацію зненацька, невідомо, як саме вони вплинуть на цілісність сторінок Вікіпедії.
«Тенденція технологічних компаній, які використовують Вікіпедію для вирішення проблем дезінформації на своїх власних платформах, є новою територією для нас, і ми не знаємо, які будуть повні наслідки», — сказала вона. «У короткостроковій перспективі ми уважно стежимо за тим, як це впливає на Вікіпедію та нашу глобальну спільноту волонтерів. На сьогоднішній день ми не бачили нічого, що вказувало б на більш масштабну проблему вандалізму».
Але навіть якби вандалізм у Вікіпедії збільшився з наміром змінити результати на платформах, Лієн сказав, що організація не матиме можливості знати.
'У нас немає даних, які б вказували на тенденції вандалізму з явним наміром маніпулювати іншими платформами', - сказала вона.
Тож наскільки ймовірно, що більше дезінформації потрапить на інші платформи? Джозеф Рігл, доцент з комунікацій Північно-Східного університету та експерт Вікіпедії, сказав Пойнтеру, хоча немає способу знати без належних систем моніторингу, що створена структура може зробити дезінформацію більш помітною — навіть якщо вона не створена для гри. таких платформ, як Google і Facebook.
«Так, це ймовірно, і я думаю, що це стане ще більш імовірним, оскільки ці комерційні компанії продовжують стрибати на підніжку», — сказав він. «У випадку з Google, я не думаю, що намір редагування був для того, щоб забруднити користувачів Вікіпедії нижче за течією, але це все одно був ефект. Той факт, що Вікіпедія використовується подібними агрегаторами нижче за течією, також зробить Вікіпедію більш ціллю, що викликає занепокоєння».
І все ж, незважаючи на те, що він скорочується, Вікіпедія все ще має віддану спільноту редакторів Роки досвіду обробка статей про останні новини. Натан Матіас, науковий співробітник Прінстонського університету, сказав Пойнтеру в електронному листі, що дезінформація навряд чи буде часто прослизати через тріщини через цю спільноту.
Але на периферії сайту цей шанс значно збільшується.
«У випадку з останніми новинами, коли активісти всіх видів розробили способи впливу на алгоритми платформи швидше, ніж швидкість журналістики, я очікую, що Вікіпедія буде більш стійкою до впливу», — сказав він. «Ризики для Вікіпедії та платформ будуть більшими на периферії знань та уваги, оскільки важче помітити невеликий потік людей, які мають доступ до низькопрофільних екстремістських матеріалів».
Незважаючи на труднощі, деякі експерти розглядають технічні платформи, які посилаються на сторінки Вікіпедії, як крок вперед у протидії дезінформації в Інтернеті.
Ені Мустафарадж, асистент професора інформатики коледжу Уелслі, сказав Пойнтеру в електронному листі, що додавання Вікіпедії до великих технологічних платформ є позитивним кроком. Але це супроводжується застереженнями.
«Вони повинні робити це послідовно, а не лише для боротьби з дезінформацією, містифікаціями чи теоріями змови», – сказала вона. «Щоб боротися з дезінформацією, ми не повинні призначати Facebook і Google відповідальними, тому що саме вони загострили проблему в першу чергу».
У той же час вилучення інформації з Вікіпедії з платформи за своєю суттю може заплутати читачів. Хансен сказав, що перегляд посилань на сайт із платформ соціальних мереж, навіть якщо вони добре позначені, не викличе такого ж скепсису, який притаманний користувачам Вікіпедії.
«Читач не знає, що це з Вікіпедії. Це наче вводить рівень, де ви не можете бути впевнені в джерелі інформації», — сказав він. «Люди скептично ставляться до Вікіпедії — ви можете бачити, коли немає джерела… коли ви перебуваєте на іншій платформі, ви не уважні до таких речей».
Тоді виникає питання пропускної здатності. Оскільки редакція продовжує знижуватися, Вікіпедія, можливо, захоче розглянути питання про найм штатних співробітників, завданням яких є стежити за вандалізмом і гарантувати, що він не поширюється на інші платформи. Хансен сказав, що він вважає, що некомерційна організація повинна створити внутрішню групу перевірки фактів або запросити експертів-редакторів і науковців, щоб вони зважилися на деякі з більш нюансованих сторінок.
«Я думаю, що це єдиний спосіб боротися з дезінформацією у Вікіпедії», – сказав він.
Принаймні, Лієн припустив, що технологічні платформи, які використовують Вікіпедію для протидії дезінформації, якимось чином повертають некомерційну організацію — про що стверджувала виконавчий директор Wikimedia Кетрін Махер. нещодавня стаття для Wired . (Facebook і YouTube не включені серед провідних благодійників Вікімедіа.)
«Ми заохочуємо компанії, які використовують вміст Вікіпедії, повертатися в тому ж дусі стійкості», — сказала вона. «Таким чином, вони приєднаються до мільйонів людей, які долучаться до підтримки Вікіпедії сильною та процвітаючою».
І Матіас погодився.
«Якщо компанії очікують покладатися на величезну кількість неоплачуваної та часто психологічно обтяжливої праці від Вікіпедії та Фонду Вікімедіа для вирішення деяких із своїх найважчих проблем, вони повинні знайти способи підтримати цю роботу, захищаючи інтелектуальну незалежність Вікіпедії», – сказав він.