Угроза использования генеративных систем искусственного интеллекта была замечена руководством Пентагона, в том числе теми, кто разрабатывает подобные системы. Крейг Мартелл, который отвечает за ИИ в Пентагоне, отмечает, что генеративные системы могут стать опасным источником распространения некорректной информации.
Примером подобного инструмента стал чат-бот ChatGPT, который способен создавать тексты, неотличимые от оригинальных. Мартелл считает, что подобные решения могут быть потенциально опасными для распространения дезинформации.
Однако, в настоящее время в Пентагоне отсутствуют средства для выявления и предотвращения дезинформации, созданной генеративными системами. В связи с этим, руководство организации обращается к степенному вниманию данной проблеме. Ведь неправильная информация, которую распространяет искусственный интеллект, может нанести непредсказуемый ущерб как конкретным участникам общества, так и всему обществу в целом.
По материалам lenta.ru.