Stora språkmodeller som ChatGPT har revolutionerat utvecklingen av artificiell intelligens. Men företagen bakom dem är så upptagna med att räkna ut hur många miljarder dollar de plötsligt är värda att de glömmer bort att titta på de faror som teknologin också innebär. Bristen på säkerhetsprocedurer är som att testa hållbarheten hos en bro genom att skicka bilar på den – och se om den kollapsar.
Kritiken kommer från två av de personer som borde veta mest om ämnet, Andrew Barto, forskare vid University of Massachusetts, och Richard Sutton, tidigare forskare vid Google-ägda DeepMind. Detta enligt tekniktidningen The Verge. De två forskarna har just mottagit årets Turing-pris.
Turing-priset anses inofficiellt vara datavetenskapens motsvarighet till Nobelpriset och de två fick utmärkelsen för sitt arbete med att utveckla Reinforcement Learning, som handlar om att träna artificiell intelligens. Metoden innebär att en observatör belönar korrekta resultat under träningen och på så sätt vägleder AI:n till att hitta önskad uppsättning regler (ungefär som man tränar en hundvalp).
Andrew Barto har i en intervju i Financial Times sagt att AI-företagen försummar att titta på säkerheten:
”Att ge miljontals användare tillgång till programvara utan att ha säkerhet på plats är emot all god praxis. Inom ingenjörsvetenskapen måste man normalt vidta försiktighetsåtgärder mot negativa konsekvenser – och det händer inte i de företag som utvecklar AI.”
Det här är inte första gången som Turing-vinnare kritiserar AI-jättar för att slarva med säkerheten. Yoshua Bengio och Geoffey Hinton, som vann tillsammans 2019, har båda påpekat att ansträngningarna att utveckla allmän artificiell intelligens (AGI) riskerar att skapa en superintelligens som kan skada mänskligheten. Antingen för sina egna syften eller i händerna på människor med onda avsikter.
Källa: The Verge