Meta pode interromper desenvolvimento de IA que considerar muito arriscada
Um documento de política da Meta sugere que há certos cenários nos quais a companhia pode deixar de lançar um sistema de IA que desenvolveu internamente por considerá-lo muito arriscado. Para a big tech, esses serviços são capazes de auxiliar em ataques de segurança cibernética, químicos e biológicos, sendo que os de “risco crítico” podem resultar em um “resultado catastrófico [que] não pode ser mitigado em [um] contexto de implantação proposto”, enquanto os de “alto risco” podem tornar um ataque mais fácil de ser realizado, mas não de forma tão confiável ou dependente quanto o primeiro. A lista de possíveis catástrofes apresentada no documento inclui apenas as que a Meta acredita serem “as mais urgentes” e plausíveis de surgir. (TechCrunch)