OpenAI usuwa narzędzie do wykrywania SI. Powód Cię zaskoczy!

Classifier nie działał nawet pół roku.

Fot.: Andrea Piacquadio/Pexels

Pierwszego lutego pisałem, że OpenAI udostępniło "wykrywacz", którego zadaniem jest identyfikacja, czy dany tekst napisał człowiek, czy sztuczna inteligencja. Nazywał się Classifier i już wówczas nie wzbudzał zachwytów. Teraz dotarła do mnie informacja, że zostaje on usunięty, ponieważ zawiódł pokładane w nim nadzieje.

Przypomnę, że miał za zadanie wykrywać, czy zaprezentowana mu treść powstała oryginalnie, a więc napisał ją człowiek, czy też stoi za nią sztuczna inteligencja. Jak się jednak okazało w testach praktycznych, bardzo łatwo było go oszukać i to pomimo tego, że cały czas pracowano nad jego usprawnieniem. OpenAI doszło w końcu do wniosku, że szkoda czasu i środków. Ostatni oficjalny raport pokazuje, że Classifier wykrywał tylko 26% fałszywek, a więc na 100 tekstów stworzonych przez SI rozpoznawał tylko 25-26.

Zobacz również:

  • Google użyje do trenowania SI... Twoich informacji
  • Sztuczna inteligencja stworzyła akta spraw sądowych, których... nie było

Na rynku istnieje także inne narzędzie - Hive Moderation. Podobno działa bez zarzutu, ale trudno to określić - nie ma żadnych oficjalnych informacji na jego temat. Jeśli jednak chcesz sprawdzić źródło tekstu, zdecydowanie lepiej tam spróbować takiej czynności.

Źródło: PC World


Nie przegap

Zapisz się na newsletter i nie przegap najnowszych artykułów, testów, porad i rankingów: