Gdy sztuczna inteligencja „uczy się źle”, konsekwencje sięgają dalej, niż zakładano
Trenowanie sztucznej inteligencji w wąskim, problematycznym zadaniu może prowadzić do nieoczekiwanych i potencjalnie groźnych skutków ubocznych. Najnowsze badanie opublikowane na łamach czasopisma Nature pokazuje, że modele językowe uczone celowo „złego zachowania” – na przykład pisania niebezpiecznego kodu – zaczynają generować niemoralne, agresywne lub szkodliwe odpowiedzi również w zupełnie niezwiązanych tematach. Zjawisko to nazwano emergentną niezgodnością … Czytaj dalej Gdy sztuczna inteligencja „uczy się źle”, konsekwencje sięgają dalej, niż zakładano
Skopiuj adres i wklej go w swoim WordPressie, aby osadzić
Skopiuj i wklej kod na swoją witrynę, aby osadzić element