«Сбер», великий и могучий, заявил о русской модели ruGPT-3 XL, которая содержит 1,3 млрд параметров и умеет продолжать тексты на русском и немного на английском языках. Для этого пользователю необходимо сформулировать «затравку» — фразу, которую модель допишет.
Идея звучит замечательно, аналогичный функционал содержит и академическая нейросеть SEMANTICS КонтрПлагиат, например, она умеет восстанавливать тексты по набору слов.
ТЕКСТЫ ДЛЯ ЭКСПЕРИМЕНТА
Для эксперимента мы взяли студенческий текст, в котором применено кодирование, внешне текст выглядит как обычно, рис. 1, но при копировании в Блокнот показывает, что в результате кодирования все слова перемешались.
Рисунок 1 – Кодированный текст в Ворде не вызывает подозрений