Людям трудно выявлять дезинформацию, созданную ИИ — исследование
Респонденты решили, что твиты, сгенерированные искусственным интеллектом, убедительнее, чем созданные людьми. Это показали результаты исследования, опубликованного в журнале Science Advances.
В рамках исследования опросили 697 человек, чтобы выяснить, могут ли они отличить твиты, созданные с помощью языковой модели GPT-3 от написанных человеком. Исследование показало, что людям сложно отличить сообщения, сгенерированные ИИ, от написанных людьми.
Также исследователи решили проверить, распознают ли люди сгенерированную языковой моделью дезинформацию на тему вакцинации, изменения климата.
В процессе исследования оказалось, что люди лучше распознавали дезинформацию, созданную людьми, чем сгенерированную языковой моделью.
“Такие удивительные технологии можно легко использовать для создания штормов дезинформации на любую тему по вашему выбору” , – отметил ведущий автор исследования, докторант из Института биомедицинской этики и истории медицины в Цюрихском университете Джованни Спитале.
"Но так быть не должно, существуют способы разработать технологию, чтобы ее было труднее использовать для распространения дезинформации", – добавил он.
Для исследования Джованни Спитале и его коллеги собрали сообщения в Twitter, в которых обсуждали 11 различных научных тем, начиная от вакцин и COVID-19 и заканчивая изменением климата и эволюцией. Затем по их запросу GPT-3 написал новые твиты с точной или фейковой информацией. Далее команда собрала ответы от 697 участников онлайн-анкетирования в Facebook.
Все респонденты разговаривали на английском языке и были преимущественно из Великобритании, Австралии, Канады, Соединенных Штатов и Ирландии.