Як працювати з інтернет-контентом, щоб не стати жертвою маніпуляції: поради журналістам від вітчизняних та європейських експертів

Перетворення інтернету на масштабний і надвпливовий медіаресурс. Порівняння підробних повідомлень у соціальних мережах з об’єктивними авторськими дописами. Поради журналістам від репортера С. Андрушка та ментора британського телеканалу Г. Дегена.

Рубрика Журналистика, издательское дело и СМИ
Вид статья
Язык украинский
Дата добавления 05.03.2019
Размер файла 57,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Ще один спосіб: можна описати ключовими словами те, що ви бачите на екрані, і ввести це в пошук YouTube або Google. Наприклад, невідомі поширили інтернетом відеоролик «Звернення до київської хунти від матері вбитого війського 14.05.2014». Утім якщо пошукати в YouTube за словами «звернення матері вбитого військового», то виявиться, що це лише фрагмент відео, вирізаний із повного відеоматеріалу, в якому матір звертається насправді не до «хунти», а до Президента Росії Володимира Путіна з проханням припинити військові дії в Україні [9]. Також слід звертати увагу на синхрони очевидців та натих, хто говорить. Можливо, ви вже бачили цю людину раніше на інших відео, і виявиться, як із відомою Марією Ціпко, яка регулярно давала коментарі ЗМІ в образах то мешканки Одеси, то Донбасу.

Отже, на нашу думку, цей проект корисний та потрібний для журналістів в Україні, утім поки він бореться з неправдивою інформацією щодо України з боку Росії («У Прикарпатті створили дитячий бойовий батальйон», «Російський журналіст сфабрикував коментар українського колеги, який перебуває у полоні», «Мешканка Запорізької області з легкої руки телеканалу НТВ перетворилася на постраждалу від бомбардування у Краматорську» тощо), а буде ще краще, якщо сайт досліджуватиме фейки з різних країн і на різну тематику [10].

Ще одна небезпека, яку приховують соцмережі, -- це нав'язування «потрібної» точки зору через коментарі буцімто людей, а насправді ботів. Робот або бот, а також інтернет-бот, www-бот тощо (англ. bot, скор. від англ. robot) -- це спеціальна програма, що виконує автоматично і/або за заданим розкладом які-небудь дії через ті самі інтерфейси, що й звичайний користувач [11].

Ботів розподіляють на кілька основних категорій: боти-тролі, що постять образливі твіти і провокують на беззмістовні суперечки (до речі, тут можуть діяти й реальні живі люди, так би мовити, за власною ініціативою); ботисміттярі, які постять беззмістовні твіти: набори хештегів, уривки заголовків новин тощо, ускладнюючи сприйняття інформації; боти-дезінформатори, які є найнебезпечнішими, адже можуть розміщувати застарілі правдоподібні новини, як-от: про переміщення загонів «тітушок», російські танки тощо [12].

У 2012 р. служба внутрішньої розвідки Росії почала створювати ботів для соціальних мереж. У сусідній державі провели три тендери на розробку методик «формування громадської думки» через соцмережі. Програмний комплекс складався з трьох модулів: «Диспут» відповідає за «дослідження процесів формування груп інтернет-центрів розповсюдження інформації у соціальних мережах»; «Монітор-3» -- за «розробку методів організації й управління в інтернеті віртуальним співтовариством залучених експертів, котрі передбачають постановку завдань, контроль роботи в соціальних медіа та регулярне отримання від експертів інформації у заданих предметних галузях»; нарешті система «Шторм-12» вкидає необхідну інформацію в мережу. От як держава взялася за контроль над суспільством, використовуючи донедавна такий «безневинний» інструмент, як соціальна мережа. Як ці структури працюють, можна було побачити на прикладі українського Євромайдану [13]. Під час революції 2013--2014 рр. ще одна соціальна мережа, сервіс мікроблогів «Твіттер», як потужнийзасіб комунікації не залишився непоміченим відповідними структурами по інший бік Євромайдану, які з перших днів протестів почали масову інформаційну війну. «Метод протидії був обраний вже добре знайомий -- застосування ботів. Слід зазначити, що сама специфіка «Твіттера», де немає жорстких вимог ідентифікації, як, наприклад, у «Фейсбуку», сприяє створенню фальшивих акаунтів. Для людини, яка володіє мінімальними навичками програмування, створення бота не є проблемою. Можна купити навіть цілі мережі ботів. Чимало з них мають навіть людиноподібні ознаки, а саме: фото у профайлі, заповнену інформацію про себе, більш-менш логічний алгоритм створення твітів», -- пише блогер Andres у статті на інтернет-ресурсі «Тексти» [12].

Україна -- це вже не перша країна, яка зазнала атак ботів. Під час президентських виборів у Мексиці 2012 р. ботів використали проти опозиційних кандидатів. У Сирії, Китаї та Венесуелі армії ботів засмічували повідомлення з опозиційними сентенціями, щоб зробити неможливою будь-яку дискусію. До речі, у цих країнах, а також в Ірані та Росії використовують й іншу тактику -- вербування за невеликі гроші великої кількості людей, котрі виконують функції роботів-спамерів. Журналіст Ф. Ховард ужив для цих людей термін «п'ятдесятицентова армія» [14].

Постає питання: як розпізнати, що коментар залишив робот, а не людина? По-перше, непрофесійні боти мають мало друзів -- не більше 50, і більшість із них -- публічні персони. Корпоративні боти, яких використовують для підвищення рейтингу сторінки, мають багато друзів, але мало лайків і мінімальне коментування на власній сторінці. Якщо провести аналіз, то можна знайти зв'язувальні акаунти (фейки, що дружать із фейками) і таким чином вийти на ботмережу. Також боти зазвичай мають однотипні імена: Катя Петрова, Даша Гаврилова, Марія Петренко -- кожне ім'я окремо не має викликати підозри, але коли в твітах з'являється сукупність схожих імен -- інша річ. Може насторожити також однотипна інформація у профайлі: «Блогер, цікавлюсь світом», «дизайнер, цікавлюсь усілякою всячиною» [12]. Слід звернути увагу й на неприродний для живої людини репост новин без жодної системи, із різноманітних галузей. Для того, щоб знищити виявленого бота, у «Твіттері» радять блокувати його та використати опцію «Поскаржитись на спам». У «Фейсбуку» можна поскаржитися на «засмічувача ефіру» або «повідомити про спам». У всіх соціальних мережах за це передбачений бан (тобто спосіб впливу на користувача шляхом обмеження його прав на створення/надсилання нових повідомлень або створення нових тем на веб-форумі, на відправлення повідомлень у чаті, на коментування у блогах). Це дієво, але за одним винятком: заблокуватитисячі ботів просто неможливо. Та й наступного ж дня з'являться нові. Тож головний засіб боротьби з ботами -- прискіпливо і критично ставитись до інформації.

Висновки

Соціальна мережа як глобальна медіаплатформа полегшує життя журналістам за рахунок доступу до величезних масивів інформації. Це -- корисний інструмент, що відкриває для журналістів-телевізійників, пресових та інтернет-журналістів можливість дізнаватися від очевидців про найгарячіші новини, шукати інформаційні приводи для власних матеріалів, вести інтерактивний діалог з глядачами, дізнаватися думки людей щодо певних подій. Крім того, активісти вже створили низку своєрідних «медіа», які функціонують лише всередині соціальних платформ (як, наприклад, сторінка Євромайдану), що свідчить про розвиток так званої «журналістики соціальних медіа». Утім, як показує досвід, соцмережі можуть також стати звалищем інформаційного бруду, фейків та підробних новин. Для того, щоб не потрапити у пастку професійних агітаторів, у процесі читання/ перегляду інформації потрібно дотримуватися низки правил, найважливіші з яких -- це прискіпливе ставлення до інформації та увага до подробиць. Якщо йдеться про підозрілий текст, слід перевірити того, хто його поширив (коли користувач зареєструвався у соціальній мережі; чи справжні у нього друзі, можливо, це боти, що також часто трапляється у результаті розвитку технологій). Якщо це зображення, слід звертати увагу на написи на ньому, погоду, ландшафт, номери машин та інші деталі, що можуть дати відповідь на походження фотографії чи дату її появи. Для перевірки зображень в інтернеті існує низка безкоштовних програм (Google Search by Image, Findexif.com, Foto Forensics, TinEye та інші), про специфіку роботи яких зазначено у статті. Також у матеріалі наведено поради з перевірки відеороликів на автентичність.

Вагому роль у набутті людьми навичок розпізнавання фейків відіграє створений у березні 2014 р. проект «Стоп Фейк», на сторінках якого в інтернеті усі, хто забажає, можуть ознайомитися, як читати і слухати новини, щоб не стати жертвою маніпуляції. Як працювати з інформацією у соцмережах, розповіли також відомий український журналіст С. Андрушко та британський кореспондент і викладач курсів для журналістів з різних країн Г. Деген. Та скільки б спеціальних програм для перевірки контенту соцмереж не існувало, вмикаючи інтернет та маючи доступ до будь-якої інформації, потрібно також «умикати» і критичне мислення. Це необхідно робити для того, щоб не дати себе надурити і в подальшому не ввести в оману свого читача, використавши інформацію зі сфабрикованого матеріалу.

Подяки. Висловлюю подяку Ужгородському національному університетові та кандидатові філологічних наук, доцентові Тарасюку Володимиру Юрійовичу за допомогу під час підготовки цієї публікації.

Література

1. Почепцов Г. Від Facebook'y і гламуру до Wikileaks: медіакомунікації / Г. Почепцов. К. : Спадщина, 2012. 464 с.

2. Залізняк Ю. Журналістика соціальних мереж: не «Ыке»-ом єдиним / Ю. Залізняк [Електронний ресурс] // Медіакритика. 18.02.2013. URL: http://www.mediakrytyka.info/ohlyady-analityka/ zhurnalistyka-sotsialnykh-merezh-ne-like-om-yedynym. html (10.07. 2013).

3. Hedman Ulrika. Embracing the social media life or creating a new digital divide? / Ulrika Hedman, Monika Djerf-Pierre// The social journalist. Digital Journalism. Vol. 1. Issue 3. 2013. Р. 368-85.

4. Андрушко С. Соціальні мережі в Україні: презентація для журналістів / С. Андрушко / / Media Neighbourhood Multiplatform Journalism: Reporting the EU. 11.03.2014. Рукопис.

5. Деген Г. Тренінг: ВВС медіа дія [Електронний ресурс] / Г. Деген // Проект «Медіа Сусідство». URL: http://www.guydegen.com/?page_id=21 (13.03.2014).

6. Косенца В. Світова карта соціальних мереж

[Електронний ресурс] / В. Косенца // Vincosblog. URL: http://vincos.it/world-map-of-social-networks/

(30.07.2013).

7. Перший твіт Папи Франциска [Електронний ресурс] // Кредо : католицький суспільно-релігійний сайт. 18.03.2013. URL: http://www.credo-ua. org/2013/03/79358 (28.07.2014).

8. Триннадцать онлайн-инструментов для проверки подлинности фотографий [Електронний ресурс] // StopFake. 29.07.2014. URL: http://www.stopfake. org/13-onlajn-instrumentov-dlya-proverki-podlinnostifotografij/ (01.08.2014).

9. Як розпізнати фейк [Електронний ресурс] // StopFake. URL: http://www.stopfake.org/kak-raspoznatfejk/ (01.08.2014).

10. Боротьба з неправдивою інформацією про події в Україні [Електронний ресурс] // StopFake. URL: http://www.stopfake.org/ (01.08.2014).

11. Робот (програма) [Електронний ресурс] // Вікіпедія. URL: http://uk.wikipedia.org/wiki/ Робот_%28програма%29. Дата доступу: 03.08.2014.

12. Andres. Інформаційна війна: 50-центова армія атакує Твіттер [Електронний ресурс] / Andres // Тексти.org.ua. 21.03.2014. URL: http://texty.org.ua/pg/blog/lizard/read/52605/ Informacijna_vijna_50centova_armija_atakuje_ Tvitter (27.06.2014).

13. Служба внешней разведки России создает ботов для социальных сетей за 30 млн. рублей [Електронний ресурс]. 27.08.2012. URL: http://habrahabr. ru/post/150269/ (27.06.2014).

14. Howard N. Philip. Let's Build Pro-Democracy Twitter Bots [Електронний ресурс] / Philip N. Howard // Slate. 31.12.2012. URL: http://www.slate.com/blogs/ future_tense/2012/12/31/twitter_bots_for_democracy_ could_combat_authoritarian_governments_50_cent.html (03.06.2014).

Размещено на Allbest.ru


Подобные документы

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.