Carta aberta pede interrupção do desenvolvimento de sistemas avançados de IA
Palavras-chaves: Inteligência Artificial
O avanço tecnológico em relação à Inteligência Artificial (IA) tem causado apreensão e receio em pesquisadores e empresários do setor. Elon Musk, por exemplo, defende a interrupção da criação de sistemas de grande escala, uma vez que não se sabe ao certo quais os impactos negativos para a sociedade que poderiam advir destas pesquisas.
A carta aberta sobre o tema é resultado do trabalho do Instituto Future of Life, uma organização sem fins lucrativos com objetivo de minimizar riscos catastróficos e existenciais globais. A carta alerta que laboratórios estão desenvolvendo sistemas de IA de maneira desenfreada e com foco apenas no desenvolvimento da aprendizagem de máquina avançada sem levar em conta possíveis consequências negativas.
O próprio fundador da Open AI, responsável pela criação do ChatGPT, já pediu que sejam estabelecidas regras rígidas para o setor de modo a evitar abusos ou “Inteligências Artificiais Assustadoras”. A carta propõe a interrupção, por ao menos seis meses, dos treinamentos de sistemas de IA, enquanto afirma que, “essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”.
Embora vários nomes importantes, como Musk, Yaval Noah Harari, cofundador da Apple, Steve Wozniak, cofundador do Skype, políticos, pesquisadores e CEOs de IA reconhecidos tenham assinado a carta, pouco se acredita que o documento trará impactos significativos na pesquisa da IA, já que empresas como Google e Microsoft já investiram milhões em suas pesquisas.
Sabe-se, no entanto, que a mobilização pode trazer à tona a necessidade de discussões acerca dos impactos da IA e despertar a atenção de políticos e órgãos reguladores para o tema.
Impactos sociais e econômicos
A IA já é uma realidade e afeta inúmeros aspectos da vida contemporânea. A rapidez do desenvolvimento tecnológico, entretanto, pressupõe que existem inúmeras possibilidades e, portanto, muitas incertezas sobre as consequências desses avanços.
Um exemplo do uso da IA é sua implementação no ramo dos transportes. Carros autônomos já são uma realidade e prometem revolucionar o mercado de veículos. No entanto, a implementação desses sistemas pode afetar profundamente a economia, sobretudo no que diz respeito a postos de trabalho ligados aos transportes. O desafio, portanto, é encontrar um equilíbrio entre avanço tecnológico e impactos sociais e econômicos.
Além disso, a IA pode ter muitos usos benéficos, como em diagnósticos médicos mais precisos e rápidos ou na recuperação antecipada de falhas em sistemas industriais, por exemplo. No entanto, o fato de a IA ser capaz de aprender de forma independente, sem necessidade de intervenção humana, pode trazer um risco considerável. A medida que IA aprende, todo o seu conhecimento e potencial podem escapar do controle humano. Assim, a criação de regras e limites pode se tornar necessária de modo a evitar a criação de “IA assustadoras”.
Revendo a ética nas pesquisas
A ética deve ser uma preocupação constante em todas as áreas da pesquisa científica e desenvolvimento tecnológico. A IA não é exceção.
Estudos mostram que a criação de IA deve ser vista por um ponto de vista ético, com o objetivo de criar sistemas que sejam confiáveis, seguros e que atendam aos interesses da sociedade como um todo. Isso significa que as pesquisas sobre a IA devem estar submetidas a regras e parâmetros éticos robustos.
Algumas regras poderiam incluir o compromisso com a transparência, isto é, garantir a prestação de contas pela IA e tornar seus resultados compreensíveis ao público. Isso é importante uma vez que, sem transparência, há o risco de que a IA possa causar danos sem que tenha sido intencionalmente projetada para fazê-lo.
Outro ponto é o comprometimento com a equidade. As pesquisas de IA devem ser fiscalizadas para garantir que não haja alterações ou preconceitos que possam vir a prejudicar grupos específicos da sociedade.
Conclusão
A IA é uma realidade presente e em constante avanço. É bom lembrar que a tecnologia sempre foi transformadora e sempre trouxe riscos. É, portanto, preciso que se acompanhe com atenção e rigor, independente da área, a evolução das pesquisas tecnológicas.
A criação de IAs deve ser acompanhada com cautela, e os pesquisadores devem estar sempre atentos às possíveis consequências negativas de seus avanços. Além disso, os governos devem ter um papel importante na elaboração de políticas capazes de garantir segurança e equidade no uso dessas tecnologias.
Newsletter:
Assine e receba nossas notícias no seu e-mail: