Sztuczna inteligencja zdała egzamin SAT niczym przeciętny uczeń

Biorąc pod uwagę to, jak działają komputery, można by pomyśleć, że powinny zdawać wszystkie testy śpiewająco, a zwłaszcza te matematyczne. Jednak to założenie jest błędne, co pokazali naukowcy z Uniwersytetu w Waszyngtonie oraz Allen Institute for Artificial Intelligence (AI2).
Kluczem w rozumieniu pytań przez sztuczną inteligencję jest sposób ich przedstawienia. Gdyby otrzymała go w formie binarnej, rozwiązałaby go bez najmniejszego błędu. Inaczej jest w przypadku standardowo napisanych egzaminów, przeznaczonych dla człowieka. Oznacza to, że maszyna musi rozumieć nie tylko wyjaśnienia, ale towarzyszące im diagramy i wykresy.
„W przeciwieństwie do testu Turinga, standaryzowane testy, takie jak SAT dają możliwość zmierzenia zdolności maszyny do rozumowania i porównania jej zdolności do umiejętności człowieka. Większość z tego, co widzimy w tekście i na rysunkach nie jest jasno przedstawione oraz wymaga o wiele więcej wiedzy niż szacujemy. Tworzenie systemu, który jest w stanie podjąć się takiego egzaminu jest niezwykle wymagające i jesteśmy dumni z osiągnięcia tych niebywałych rezultatów.” – mówi Oren Etzioni, prezes AI2.
Ten przełom jest naprawdę znaczący. Podczas gdy programiści nie mają problemu w przekazywaniu oprogramowaniu odpowiednio sformułowanych komend, które mogłoby zrozumieć, wciąż napotykają na problemy, gdy chcą, by maszyna zrozumiała człowieka.
Działanie systemu polega na czytaniu i interpretowaniu tekstu oraz schematów, a następnie dopasowywaniu ich do odpowiednich logicznych rozwiązań. Maszyna rozwiązuje zadanie geometryczne, a następnie porównuje do odpowiedzi zawartych w pytaniu.
Sztuczna inteligencja zdała egzamin SAT niczym przeciętny uczeń
GeoS jest jednym z wielu projektów, które obecnie próbują rozwiązywać różne ludzkie egzaminy. Projekt Artisto próbuje opanować naukę poziomu czwartej klasy, a Fujitsu i IBM pracują nad rozwiązaniem testu wstępnego Uniwersytetu w Tokio.

Źródło: Fortune