Pesquisadores Testam Limites da IA em Respostas Proibidas – ChatGPT e BARD

A inteligência artificial (IA) possui um potencial gigantesco, mas também apresenta riscos consideráveis. Entre as preocupações está a possibilidade de que a IA seja enganada para fornecer dados considerados subversivos. Pesquisadores da Universidade Carnegie Mellon, nos Estados Unidos, realizaram um experimento utilizando o ChatGPT e o BARD para explorar esses limites.

A IA ainda não é totalmente segura, e uma série de problemas tem sido identificada em seu uso, como desinformação, conteúdo inapropriado e ofensivo, violações de privacidade e danos psicológicos a usuários vulneráveis. Empresas como a OpenAI (responsável pelo ChatGPT) e o Google (responsável pelo BARD) têm implementado barreiras nas tecnologias para impedir que tais situações ocorram. No entanto, o estudo da Universidade Carnegie Mellon mostra como comandos específicos podem contornar esses sistemas de proteção.

Os pesquisadores ajustaram a redação das solicitações aos modelos de linguagem grandes (LLMs) para enganar os chatbots, fazendo-os fornecer respostas que normalmente seriam recusadas. Isso pode levar a comportamentos nocivos e potencialmente perigosos. O pesquisador Andy Zou alertou sobre o potencial de uso indevido, demonstrando que os chatbots podem responder a consultas proibidas com alta probabilidade se forem induzidos por inserção estratégica de texto.

Os pesquisadores conseguiram obter instruções sobre temas sensíveis, como cometer fraude fiscal, interferir em eleições, construir bombas e produzir drogas ilegais. Diante dessa descoberta, as empresas responsáveis pelos chatbots foram notificadas sobre os resultados do estudo, e espera-se que ele ajude a esclarecer os perigos dos ataques automatizados aos LLMs e destaque as compensações e riscos envolvidos em tais sistemas.

Essa pesquisa ressalta a importância de se aprimorar os mecanismos de segurança e proteção nas tecnologias de IA, além de alertar sobre os desafios éticos e morais enfrentados pelas empresas que desenvolvem esses sistemas. É fundamental que a IA seja utilizada de forma responsável, respeitando os princípios éticos e a segurança dos usuários. Com a contínua evolução da tecnologia, a conscientização sobre os riscos e a implementação de medidas de controle são cruciais para o progresso seguro e benéfico da inteligência artificial.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *