Partilhareste artigo
Os primeiros efeitos da aplicação de Inteligência Artificial (IA) tornaram-se mais visíveis com o lançamento do ChatGPT, plataforma que começa a ser integrada em diferentes tipos de outras plataformas de interação entre uma organização e o consumidor, como os famigerados chatbots. No entanto, e apesar do potencial que a combinação entre IA e os chatbots representa, haverá riscos que precisam de ser acautelados.
Relacionados
“A IA tem revolucionado a forma como interagimos com a tecnologia”, afirma ao Dinheiro Vivo (DV) Luís Catarino, offensive security manager da S21sec. O especialista não só reconhece que o deep learning e o processamento de linguagem natural permite aos chatbots melhorar “a capacidade de interpretar contexto, inferir intenções e responder de forma contextualizada”, como também permitem tornar os chatbots em “verdadeiros aliados na prestação de serviços, resolução de dúvidas, entre outros”.
Até aqui o chatbot mais comum consistia numa ferramenta assente numa lógica e regras pré estabelecidas. “Estas soluções seguem frequentemente um conjunto de instruções programadas para responder a determinadas palavras-chave ou padrões de entrada. Não tendo inteligência inata para compreender a linguagem, em vez disso, estas [ferramentas] oferecem respostas pré definidas que correspondem a determinados gatilhos”, explica Luís Catarino.
Ora, um chatbot com IA – idêntico ao que o ChatGPT faz – já não estará limitado aos referidos gatilhos ou palavras-chave. Isto é, com o processamento de linguagem natural e machine learning disponíveis para a produção de respostas, o chatbot com IA passa a ser “um modelo de linguagem avançado que aprende por meio de dados e é capaz de gerar respostas mais elaboradas e contextualizadas”.
Prós e contras
Subscrever newsletter
A evolução dos chatbots podem dar “a eficiência e agilidade, na medida em que estas soluções podem lidar simultaneamente com múltiplas interações, processando pedidos e respondendo de forma rápida e eficiente”. Acresce, segundo o especialista da S21sec, “a capacidade de personalização dos seus conteúdos”. Ganham os canais de comunicação das organizações com os utilizadores ou consumidores.
“A melhoria contínua é ainda outra das vantagens a realçar, visto que estas soluções podem ser treinadas com dados históricos e receber feedback dos utilizadores para melhorar constantemente as suas respostas e desempenho. A sua disponibilidade 24/7 e respetiva redução de custos associados a recursos humanos são ainda fatores a considerar”, salienta o offensive security manager da S21sec.
No entanto, haverá riscos a considerar também. “Um dos principais riscos dos chatbots alimentados por IA é o potencial para campanhas de desinformação. Enquanto estas ferramentas se tornam mais avançadas e cada vez mais assumidas como “fonte de verdade”, devemos ter em consideração que estas são também capazes de gerar conteúdos falsos, como notícias e propaganda, assim como outros conteúdos maliciosos convincentes e sofisticados”, refere Luís Catarino.
Realça o especialista que há, nesta matéria “potencial” para gerar desinformação “sem precedentes”, tornando-se mais difícil a “distinção entre informações verdadeiras e falsas tanto aos indivíduos como às organizações”.
“Devemos [ainda] ter em conta que estas ferramentas podem partilhar informações desatualizadas visto que as suas bases de conhecimento são ainda limitadas”, lembra.
Quanto à cibersegurança, ainda que um chatbot munido de IA possa melhorar a triagem e identificação de ameaças, há que estar ciente que, por outro lado, pode “facilitar o acesso a informações sensíveis aos cibercriminosos”.
Como? Através da “exploração de potenciais vulnerabilidades nestas soluções”, segundo Catarino, notando que este tipo de ferramenta tem, ainda, “a capacidade de simular conversas e comportamentos humanos, permitindo desta forma enganar mais facilmente as pessoas, e obter informações pessoais e sensíveis, tais como credenciais de login“.
Há também o potencial risco de sistemas autónomos poderem desenvolver capacidade para controlar infraestruturas críticas, “com a crescente integração de chatbots na sociedade”.
“É cada vez mais provável que estes [tipos de chatbots com IA] venham a ser utilizados para controlar sistemas críticos, como as nossas redes de energia, sistemas financeiros e de transporte. Se estes sistemas forem comprometidos ou as suas orientações de tomada de decisão condicionadas, poderemos sofrer consequências significativas”, sumaria o especialista da S21sec.
“O impacto destes riscos não se limita à cibersegurança, podendo também afetar atividades do dia a dia. A desinformação pode influenciar as decisões das pessoas, como as suas decisões políticas, escolhas de compra e mesmo decisões as relacionadas com a saúde”, prossegue.
O que fazer para minimizar estes riscos face às vantagens existentes? Investir em cibersegurança, segundo Luís Catarino. É esta a sugestão para as diferentes organizações existentes – desde o setor privado ao Estado.
“Para mitigar os riscos relacionados com a cibersegurança, as organizações devem priorizar este tema desde o início das suas atividades, o que implica investir em tecnologias avançadas de cibersegurança, e implementar políticas de defesa seguras”, defende.
O offensive security manager da S21sec nota que muitas organizações e indivíduos estão ainda a investigar como estas ferramentas com IA podem ser aplicadas com o fator risco em níveis mínimos, lembrando que a Comissão Europeia propôs a primeira regulamentação para IA em abril de 2021, cuja proposta do regulamento foi recentemente aprovada, e onde está definido um conjunto de regras que incluem a designação de ações onde o uso de IA é de alto risco, baixo risco, ou ainda proibido.
Deixe um comentário