снимка: © Tara Winstead, https://www.pexels.com
Алмира Османович Тунстрьом, учен от университета в Гьотеборг, възложи задача на невронната мрежа GPT-3 да напише академична статия за себе си с цел публикуване в научно списание. В резултат на това системата генерира текст от 500 думи с научни цитати и подходящ контекст. Темата обаче повдигна много етични и правни въпроси, когато създателите на мрежата се опитаха да публикуват документа.
GPT-3 е невронна мрежа, разработена от общността на OpenAI, и специализирана в генерирането на различни текстове. Сред постиженията ѝ са създаване на новинарски статии и продължения на книги от починали автори. Тунстрьом забелязва, че са написани много научни статии за самата нея с използване на GPT-3, но нито една от тях не споменава услугата като основен автор.
За целите на експеримента Тунстрьом и нейният екип са дали на GPT-3 „много неясни инструкции” за статия. В хода на изследването учените изпращат към системата серия от подсказвания, така че тя да може да напише документ с подходящата структура.
След завършване на статията Тунстрьом решава да я публикува в научни списания, но се сблъсква с редица етични и правни проблеми при попълване на заявлението. Първоначално не е ясно кои да бъдат посочени като автори, тъй като невронната мрежа няма име, фамилия и информация за контакт. В резултат на това жената записва там името на разработчика (OpenAI) и посочва данните на своя съветник – невронната мрежа.
Възникна и въпросът за законното съгласие – по-точно дали изследователят е задал въпрос на невронната мрежа и дали е получил разрешение. „Ако беше отговорила с „не”, съвестта ми нямаше да позволи публикуването на статията”, казва Тунстрьом, цитирана от Scientific American.
Статията вече е достъпна във френската услуга за предварителен преглед на научни изследвания HAL. В нея GPT-3 се нарича изключително постижение в областта на изкуствения интелект. Невронната мрежа казва, че способността да пишеш за себе си е важно направление на научни изследвания и може да помогне за неговото развитие.
GPT-3 обаче отбеляза, че това идва с риск невронната мрежа да стане съзнателна. Все пак, според нея, ползите досега надвишават потенциалните рискове.