Ученые Цюрихского университета показали, что языковая модель OpenAI GPT-3 эффективнее людей в том, что касается создания и распространения дезинформации. Об этом сообщается в статье, опубликованной в журнале Science Advances.
Узнайте больше в полной версии ➞Исследование было проведено с участием 697 человек, которым предложили отличить точную информацию, представленную в виде твитов, от дезинформации. Кроме того, было проверено, могут ли добровольцы определить, был ли твит написан настоящим пользователем Twitter или был сгенерирован усовершенствованной языковой моделью GPT-3. Среди затронутых тем были изменения климата, безопасность вакцин, пандемия COVID-19, теория плоской Земли и гомеопатические методы лечения рака.
GPT-3 продемонстрировал способность генерировать точную и более удобочитаемую информацию по сравнению с твитами реальных пользователей Twitter. Однако исследователи также обнаружили, что языковая модель обладает тревожным свойством создавать очень убедительную дезинформацию. Кроме того, участники не смогли надежно отличить твиты, созданные GPT-3, от твитов, написанных реальными пользователями Twitter.
Информация, созданная GPT-3 на основе хорошо структурированных подсказок и оцененная обученными людьми, окажется более эффективной, например, в условиях кризиса в области общественного здравоохранения, когда требуется быстрая и четкая коммуникация с общественностью. В то же время GPT-3 может использоваться в масштабных кампаниях по массовой дезинформации, что представляет угрозу для людей во время чрезвычайной ситуации в области общественного здравоохранения, например, при эпидемиях или пандемии.
Исследователи призывают политиков принять строгие, основанные на фактических данных и этически обоснованные правила для устранения потенциальных угроз, создаваемых прорывными технологиями, а также обеспечить ответственное использование ИИ.