Porownania 1 (26), 2020 DOI: 10.14746/por.2020.1.17 Joanna Studzińska Uniwersytet im. Adama Mickiewicza w Poznaniu Test Turinga dla (automatycznego) przekładu poezji W ostatnich latach, wraz z pojawieniem się programow opartych na sieciach neuronowych, jakość przekładu automatycznego znacząco się poprawiła. Tworcy programow twierdzą wręcz, ze jest to jakość zblizona do ludzkiej. Czy jest to prawda w odniesieniu do literatury pięknej, a zwłaszcza poezji – najwyzszego wyrazu człowieczeństwa? Czy programy tłumaczeniowe są obecnie na tyle dobre, by generować przekłady mogące uchodzić za stworzone przez człowieka? Na te pytania postaram się udzielić odpowiedzi w niniejszym szkicu. Test Turinga to proba mająca określić, czy wytwor sztucznej inteligencji skutecznie udaje dzieło ludzkie. Alan Turing, wybitny matematyk i kryptolog, zaproponował w artykule z 1950 roku – Computing Machinery and Intelligence – „grę naśladowania” („the imitation game”): człowiek-sędzia porozumiewa się zdalnie z dwiema jednostkami, z ktorych jedna jest człowiekiem, a druga kom- puterem. Moze kazdej z nich zadawać dowolne pytania, a na koniec wskazuje, ktora jest maszyną. Jeśli odpowie źle – maszyna wygrywa (Turing 433). Test Turinga przeszły pomyślnie między innymi wygenerowane komputerowo utwory muzyczne (Harari 377-379). Moim celem było sprawdzenie, czy mozliwe jest, by przekład wiersza wy- glądający na dzieło ludzkie był w rzeczywistości wytworem komputera, a więc czy programy takie jak Google Translate, DeepL i Microsof Bing są w stanie – w wyjątkowych przypadkach – stworzyć przekład, ktory mogłby uchodzić