OpenAI pracuje nad rozwiązaniem do wykrywania tekstu generowanego przez ChatGPT

ChatGPT

ChatGPT to prototyp chatbota opartego na sztucznej inteligencji

Wiadomość została wydana, że OpenAI opracowuje oprogramowanie, które może wykryć, czy Twój model ChatGPT wygenerował tekst, stało się to wkrótce po tym, jak władze oświatowe Nowego Jorku ogłosiły, że zablokują uczniom dostęp do narzędzia w szkołach publicznych.

I to, że opublikowali różne raporty o tym, co uczniowie używający AI do odrabiania zadań domowych, skłoniły nauczycieli do zastanowienia się, jak to wpływa na edukację.

Niektórzy wyrazili swoje troska o to, jak modele językowe mogą pozwolić uczniom oszukiwać.

Biorąc to pod uwagę, OpenAI ogłosiło, że pracuje nad opracowaniem „łagodzeń”, które pomogą ludziom wykrywać tekst automatycznie generowany przez ChatGPT.

„Udostępniliśmy ChatGPT jako podgląd badań, aby uczyć się z rzeczywistego użytkowania, co naszym zdaniem jest istotną częścią opracowywania i wdrażania wydajnych i bezpiecznych systemów sztucznej inteligencji. Stale uwzględniamy opinie i wyciągnięte wnioski” – powiedział rzecznik firmy.

Według zeznań profesorów uniwersyteckich, uczniowie ufają ChatGPT w rozwiązywaniu zadań domowych, zwłaszcza na próbach.

„Akademia nie przewidziała tego. Więc nas to zaskoczyło” – mówi Darren Hudson Hick, adiunkt filozofii na Uniwersytecie Furman.

„Zgłosiłem to na Facebooku, a moi przyjaciele [nauczyciele] powiedzieli:„ Tak! Ja też jednego złapałem” – dodał. Na początku tego miesiąca Hick podobno poprosił swoją klasę o napisanie eseju na 500 słów na temat XVIII-wiecznego szkockiego filozofa Davida Hume'a i paradoksu horroru, który bada, w jaki sposób ludzie mogą czerpać przyjemność z czegoś, czego się boją. , do testu w domu. Ale według profesora filozofii jeden z esejów, które do niego trafiły, miał pewne cechy, które „zaznaczały” użycie AI w „podstawowej” odpowiedzi studenta. Hick wyjaśnia, że ​​wprawne oko może to wykryć.

Umiejętność rozróżniania pisma ręcznego ręcznie wytwarzane przez człowieka lub maszynę zmieni sposób, w jaki można ich używać w akademii. Szkoły mogłyby skuteczniej egzekwować zakaz testów generowany przez sztuczną inteligencję,

Tak, generatywne modele językowe mogą być dobre, ale nie wiedzą, o czym mówią.

Choć pismo generowane przez sztuczną inteligencję trafia na pierwsze strony gazet podczas konferencji uniwersyteckich i szkół zakazujących pisania na maszynie, oto przypomnienie, że brakuje im zrozumienia rzeczywistego pisma ludzkiego.

I to dlatego, że OpenAI od 2015 r. imponuje Internetowi swoimi wysiłkami na rzecz powielania ludzkiej inteligencji i zdolności artystycznych. Ale w listopadzie ubiegłego roku firma w końcu stała się mega wirusowa, uruchamiając generator tekstu AI ChatGPT. Użytkownicy narzędzia w wersji beta opublikowali przykłady odpowiedzi tekstowych generowanych przez sztuczną inteligencję na monity, które wydawały się tak uzasadnione, że wywołały strach w sercach nauczycieli, a nawet sprawiły, że Google obawiał się, że narzędzie może zabić ich działalność badawczą.

Jeśli inżynierowie OpenAI są w stanie stworzyć bota, który może pisać równie dobrze lub lepiej niż przeciętny człowiek, jest zrozumiałe, że mogą również stworzyć bota, który jest lepszy od przeciętnego człowieka w wykrywaniu, czy tekst został wygenerowany przez sztuczną inteligencję.

Ponieważ, jak wspomniano, w tej chwili OpenAI pracuje nad rozwiązaniem, wydano już co najmniej trzy narzędzia do wykrywania, których można użyć:

Detektor wyjścia GPT-2

Demo online modelu detektora wyjścia GPT-2 umożliwia wklejenie tekstu w pole i natychmiastowe sprawdzenie prawdopodobieństwa, że ​​tekst został wpisany przez sztuczną inteligencję. Według badań OpenAI narzędzie ma stosunkowo wysoki wskaźnik wykrywalności, ale „musi być połączone z podejściem opartym na metadanych, ludzkiej ocenie i edukacji publicznej, aby było jak najbardziej skuteczne”.

GLTR 

Kiedy OpenAI wypuściło GPT-2 w 2019 roku, ludzie z MIT-IBM Watson AI Lab i Harvard Natural Language Processing Group połączyli siły, aby stworzyć algorytm, który próbuje wykryć, czy tekst został wpisany przez bota.

Tekst generowany komputerowo może wydawać się napisany przez człowieka, ale pisarz-człowiek jest bardziej skłonny do wybierania nieprzewidywalnych słów. Korzystając z metody „trzeba wiedzieć”, jeśli algorytm GLTR może przewidzieć następne słowo w zdaniu, założy, że zdanie zostało napisane przez bota.

GPZero

W okresie świątecznym Edward Tian był zajęty tworzeniem GPTZero, aplikacji, która może pomóc określić, czy tekst został napisany przez człowieka, czy przez bota. Jako pracownik naukowy w Princeton, Tian rozumie, w jaki sposób profesorowie uniwersyteccy mogą mieć żywotny interes w wykrywaniu plagiatu wspomaganego przez sztuczną inteligencję lub plagiatu wspomaganego przez sztuczną inteligencję.

Tian mówi, że jego narzędzie mierzy losowość zdań („buzz”) oraz ogólną losowość („wybuchy”), aby obliczyć prawdopodobieństwo, że tekst został napisany przez ChatGPT. Od czasu tweetowania o GPTZero 2 stycznia, Tian mówi, że zwrócili się już do niego inwestorzy venture capital, którzy chcą zainwestować, i wkrótce opracuje zaktualizowane wersje.

źródło: https://techcrunch.com


Zostaw swój komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

*

*

  1. Odpowiedzialny za dane: AB Internet Networks 2008 SL
  2. Cel danych: kontrola spamu, zarządzanie komentarzami.
  3. Legitymacja: Twoja zgoda
  4. Przekazywanie danych: Dane nie będą przekazywane stronom trzecim, z wyjątkiem obowiązku prawnego.
  5. Przechowywanie danych: baza danych hostowana przez Occentus Networks (UE)
  6. Prawa: w dowolnym momencie możesz ograniczyć, odzyskać i usunąć swoje dane.