Według najnowszych badań, ChatGPT – rozmowny robot, jest tak dobry w rozmowach, że ludzie mylą go z innymi ludźmi. Może napisać esej tak jak człowiek i zdać trudne testy. Ale mimo to, ma problem z rozwiązywaniem prostych zagadek.
ChatGPT – mówi jak człowiek, ale myśli jak robot
Naukowcy są zaskoczeni, jak wiele robot taki jak ChatGPT potrafi zrobić, korzystając tylko z ludzkiego języka. Inne roboty mogą być lepsze w jednym konkretnym zadaniu, ale muszą być specjalnie do niego przygotowane, a nie potrafią się dostosować do nowych zadań.
Nie wszyscy naukowcy są zgodni, czy roboty takie jak ChatGPT naprawdę „myślą”. Niektórzy sądzą, że tak, inni są mniej przekonani. Problem w tym, że nie mamy jeszcze dobrego sposobu, aby to zmierzyć i udowodnić.
Czy Test Turinga już nie wystarczy?
Od dawna używamy Testu Turinga, wymyślonego przez brytyjskiego matematyka Alana Turinga, do mierzenia inteligencji robotów. Ale teraz, kiedy roboty takie jak ChatGPT są w stanie przekonać wiele osób, że są ludźmi, zaczynamy zastanawiać się, czy ten test jest już wystarczający.
Nowe wyzwania i możliwości
Inne testy, które pokazują różnice między tym, co ludzie, a co roboty potrafią, mogą nam pomóc lepiej zrozumieć, czego brakuje robotom, i jak działają ludzkie mózgi. Jeśli chcemy korzystać z robotów takich jak ChatGPT w prawdziwym świecie, na przykład w medycynie lub prawie, musimy wiedzieć, gdzie są ich granice.
Chociaż ChatGPT pokonało Test Turinga, wciąż mamy wiele do nauczenia o tym, co roboty takie jak on potrafią, a czego nie.