@erikdelareguera
Det märkliga är att, med förbehållet att "människan" nog bara var en annan bott, så låter det hela som ett ganska typiskt problem, men Pentagon blånekar att något experiment ens hänt.
Den här länken ger exempel på när samma problem inträffat i andra sammanhang: https://openai.com/research/faulty-reward-functions tricket är att minnas det faktum att botten inte tar beslut om sin strategi, utan testar massa beteenden typ slumpvis och sen kör på det som ger mest poäng.
@erikdelareguera
Nu säger han som presenterade att han "sa fel", och att "we were training it in a simulation" bara ska förstås som något som rent hypotetiskt kan hända i framtiden....
https://twitter.com/lee_georgina/status/1664585717358395392