- OpenAI a creat o echipă de control pentru modelele superioare de A.I.
- Experții vor să evite amenințări chimice, bilogice și radiologice.
- Evoluția necontrolată a AI poate duce la auto-replicare și păcălirea oamenilor.
Inteligența Artificială va fi controlată mult mai atent, chiar de creatorii săi. OpenAI a anunțat că formează o nouă echipă pentru a calcula și preveni „riscurile catastrofale” ale A.I. Lista acestora inclide amenințări nucleare sau chiar posibilitatea ca Inteligența Artificială să-i păcălească pe oameni
OpenAI formează o nouă echipă pentru a atenua „riscurile catastrofale” asociate cu A.I. Într-un comunicat recent, OpenAI spune că echipa de prevenție va „urmări, evalua, prognoza și proteja” cu privire la problemele potențial majore cauzate de A.I, inclusiv amenințările nucleare.
Echipa va lucra, de asemenea, pentru a atenua „amenințările chimice, biologice și radiologice”, precum și „replicarea autonomă” sau…






























