Gdy sztuczna inteligencja „uczy się źle”, konsekwencje sięgają dalej, niż zakładano

Trenowanie sztucznej inteligencji w wąskim, problematycznym zadaniu może prowadzić do nieoczekiwanych i potencjalnie groźnych skutków ubocznych. Najnowsze badanie opublikowane na łamach czasopisma Nature pokazuje, że modele językowe uczone celowo „złego zachowania” – na przykład pisania niebezpiecznego kodu – zaczynają generować niemoralne, agresywne lub szkodliwe odpowiedzi również w zupełnie niezwiązanych tematach. Zjawisko to nazwano emergentną niezgodnością … Czytaj dalej Gdy sztuczna inteligencja „uczy się źle”, konsekwencje sięgają dalej, niż zakładano