logo seesp ap 22

 

BannerAssocie se

29/03/2023

Lógica expõe dificuldades sobre chat de IA

Carlos Magno Corrêa Dias* 

 

Quando se consideram os avanços das tecnologias sob o ponto de vista das possibilidades profissionais é inevitável não deixar de se pensar na determinante “adaptabilidade” a qual segundo definição bem aceita é a capacidade que o ser humano possui (ou pode desenvolver) de responder adequada e rapidamente a situações cujas mudanças estão em curso permitindo que seu comportamento seja ajustável em conformidade com as circunstâncias e/ou com a posição de outros seres humanos com os quais interage. 

 

Muito mais que em épocas anteriores as gerações atuais (mesmo que quase sem perceber) estão desenvolvendo a adaptabilidade desde os primeiros anos de vida de forma que o adaptar tornou-se uma exigência mais intensa na atualidade embora sempre tenha sido faz parte fundamental da natureza humana.

 

De forma algo bem geral, é importante ter em mente que a adaptabilidade envolve (dentre, é claro, outros requisitos) as seguintes pré-condições: ser resiliente frente às mudanças que são inevitáveis, estar aberto sempre para aprendizagem e compreender que no mundo das possibilidades “quânticas” infinitas são as formas de resolver problemas, sempre estar preparado para pensar de forma diferente que a sua, e, perguntar e se atualizar para aprender e apreender sobre as mudanças que vão ocorrendo no trabalho.

 

Os constantes e acelerados avanços das tecnologias digitais, as crises internacionais como a da pandemia de Covid-19, as diferentes modalidades de trabalho que vão surgindo devido à simbiose entre o mundo virtual e o real impostas pelos Sistemas Ciber-Físicos, o surgimento serviços de computação em nuvem (Cloud Computing Services), o gerenciamento constante da informação, a Segurança de Computadores ou a Cibersegurança (Cybersecurity), a transformação digital, a robotização, as novas legislações sobre espaços cibernéticos, são alguns dos aspectos que estão potencializando a necessidade do constante e contínuo aprimoramento da adaptabilidade na vida das pessoas a todo momento.

 

Mas, talvez, sejam os domínios da Inteligência Artificial (IA) que estejam forçando com maior potencialidade os profissionais a se adaptarem para se manterem relevantes em seus campos de atuação pondo em prática a capacidade fundamental de lidar não apenas com as novas tecnologias como, também, com as consequências que diariamente se mostram cada mais disruptivas e transformadoras. 

 

Conquanto surpreendente a IA já era pensada pelos Filósofos da Antiguidade Clássica. Mas, no campo científico e tecnológico é bem mais recente iniciando por volta da década de 1940. É em 1943 que foi publicado primeiro trabalho que propunha um modelo matemático inicial para uma rede neural. Em 1950 surge o Teste de Turing o qual, basicamente, corresponde a uma “avaliação” da capacidade de uma máquina “imitar” o comportamento inteligente de um ser humano. A IA nasceu efetivamente em 1950 com o Teste de Turing.

 

O Teste de Turing testa se uma máquina é capaz de apresentar comportamento inteligente algo parecido (ou “equivalente”) ao do ser humano ou, do contrário, se tem “inteligência” indistinguível da do ser humano. No Teste de Turing uma máquina seria “aprovada” se um interrogador humano não fosse capaz de dizer com “certeza” se, após o humano ter feito uma série de perguntas por escrito para a máquina, as respostas apresentadas pela máquina foram dadas por uma pessoa ou não.

 

Em 1956, surgiu, pela primeira vez, a “alcunha” Inteligência Artificial significando “a ciência e a engenharia de produzir máquinas inteligentes” pretendendo-se equipamentos com a capacidade de reproduzir habilidades semelhantes às humanas. Em 1959, apareceu o inolvidável termo machine learning para enunciar sistemas que permitissem aos computadores desenvolver alguma função sem a necessidade de programação específica para tanto. Em IA a ideia básica, a geratriz dos procedimentos, sempre foi gerar dispositivos (ou máquinas) que a partir do fornecimento de dados de entrada para um algoritmo (residente) houvesse o aprendizado pela máquina para em seguida executar tarefas de forma automática.

 

Da década de 1960 em seguida a história da IA se mostra um misto acentuado de “altos e baixos” e praticamente se confunde muito facilmente com o desenvolvimento dos computadores e da computação em si.

 

Depois do surgimento do Teste de Turing os estudos sobre IA se concentraram tanto na IBM como, também, nas Universidades de Princeton, MIT (Massachusetts Institute of Technology), CMU (Carnegie Mellon University) e Stanford; sendo o programa Dendral, desenvolvido entre 1965 e 1969 na Universidade de Stanford, um marco importante dado ter sido aquele que é considerado o primeiro sistema especialista devido ao seu modo automático de tomar decisões e resolver problemas relativos a química orgânica centrado em um grande número de regras com finalidades específicas.

 

Mas, décadas depois os avanços no campo da IA meio que estacionaram ou se desenvolveram muito lentamente sem grandes descobertas ou desenvolvimentos. De forma algo decepcionante (diante das expectativas iniciais) as máquinas não estão conseguindo atingir “capacidade intelectual” semelhante à dos humanos; o que vem gerando enorme frustração nos pesquisadores e uma baixa muito acentuada nos investimentos na área.

 

Mas, nos anos 1990, a IA volta a ser observada com maior atenção devido ao surgimento da Internet comercial quando a IA passava a ser usada para o desenvolvimento de sistemas de navegação. Naquela época surgia a possibilidade de programas analisarem dados da rede e os classificarem segundo grupos de interesses pré-estabelecidos. Em 1996, o supercomputador Deep Blue, criado pela IBM especialmente para jogar xadrez, vence o campeão mundial de xadrez e pela primeira vez na história uma máquina derrotava um humano. O Google nascia em 1998.

 

Quase como um gatilho disparado instantaneamente iniciam naquela mesma fase avanços exponenciais tecnológicos surpreendentes e as aplicações da IA se espalharam por toda parte. Empresas inovadoras de tecnologia passam a ter suas equipes internas de IA para serem mais competitivas no mercado, a automação de processos na indústria não parou de crescer, surgiram jogos digitais que aprendem o comportamento dos jogadores, a robotização da indústria se consagrou, sistemas inteligentes para o reconhecimento de padrões se proliferam diariamente, informações são disseminadas continuamente para a tomada de decisão e determinação de diagnósticos, assistentes pessoais como Siri e Alexa interagem com os usuários a qualquer instante, veículos autônomos invadem espaços urbanos, sensores para todo lado permitem manter cidades cada vez mais inteligentes.

 

Entretanto, os desenvolvimentos e as aplicações da IA seguem meio que sem um rumo “pensado” de forma que vez ou outra surgem inovações disruptivas que não se alinham com um padrão. Nestes momentos de alta da IA aparecem desenvolvimentos cativantes tais como a recente ferramenta ChatGPT a qual desde seu lançamento (em novembro de 2022) tem chamado fortemente a atenção de todos e vem gerando muitas discussões sejam a seu favor ou contra a sua existência.

 

ChatbotO ChatGPT é um modelo de linguagem artificial criado pelo OpenAI que interage de forma conversacional e que possibilita realizar uma grande variedade de tarefas tais como responder perguntas, elaborar textos, traduzir textos, escrever programas em linguagem de computador, preparar monografias ou até mesmo teses, gerar artigos científicos, elaborar laudos ou perícias, resolver questões problema, enfim, dar conta de diversas tarefas que desafiam a inteligência humana.  

 

De forma acessível a qualquer usuário o ChatGPT tem sido usado em várias situações reais do dia a dia das pessoas apresentando resultados tidos como surpreendentes o que já está provocando impacto imenso na sociedade. Pode-se afirmar que a plataforma ChatGPT está provocando, muito rapidamente, mudanças na forma como se trabalha, como se pode aprender (e apreender), como se faz a comunicação, como se processo a divulgação de resultados. Em geral, chega-se a pensar que existirão dois momentos distintos quanto à capacidade de se conversar; sendo a primeira forma aquela que existia antes do advento do ChatGPT.

 

Interessante salientar que o modelo de IA do ChatGPT é de tal forma interessante (e inovador) que possibilita ao usuário não apenas manter um “diálogo” continuado como, também, é capaz de contestar informações (premissas) incorretas ou incongruentes, rejeitar solicitações julgadas inadequadas ou até admitir que esteja errado quando confrontado com a “verdade”. Mas, o problema central continua a ser a questão primária de qual é a “verdade” que está nos bancos de dados da plataforma a partir da qual tudo o mais é criado.

 

A OpenAI, fundada em São Francisco nos Estados Unidos, no final de 2015, é um laboratório de pesquisas em IA que tem por principal objetivo a promoção e o desenvolvimento de “IA amigável” direcionada para o bem da humanidade sendo o seu ChatGPT produto que pretende revolucionar (facilitar) o mundo do trabalho permitindo aos profissionais “mais tempo para criar ao invés de executar”.

 

Pouco tempo depois de apresentado ao mundo o ChatGPT já vem promovendo acentuada disrupção, mudanças, nas organizações e nos profissionais que reconhecendo as potencialidades iniciam de imediato a necessária adaptação à nova forma de se escrever. Fala-se que muito rapidamente as empresas já perceberam as vantagens de se usar o ChatGPT para escrever códigos de programação, para o atendimento de clientes, para a elaboração de documentos e de conteúdos, para a descrição de materiais e produtos, enfim, para uma gama enorme de possibilidade que se estendem do mais elementar aos mais complexos procedimentos.

 

Já se fala que uma em cada quatro organizações começaram a substituíram o trabalho humano pelo ChatGPT gerando (inevitavelmente) significativa economia; o que não significa, em absoluto, que o ChatGPT vai “roubar” o trabalho das pessoas. Muito pelo contrário, pois vai gerar muito mais oportunidades como, em geral, acontece, quando novas tecnologias surgem. Para que uma nova tecnologia funcione bem, sempre serão necessários os profissionais que dominem as correspondentes funcionalidades e saibam como bem as utilizar.

 

Mas, o temor das pessoas que as tecnologias possam substituir seus empregos continuará presente e, inevitavelmente, muitos postos de trabalho serão extintos de fato. Porém, é claro, também, que muitos outros serão criados uma vez que não há como avançar no campo tecnológico sem a criação de novas profissões antes até inimagináveis diante das novas oportunidades e possibilidades que vão surgindo. As novas tecnologias promovem mudanças nas formas de trabalho e, em muitas das vezes, exigem profissionais que ainda sequer foram formados para as correspondentes aplicações e desenvolvimentos.

 

Hoje já se fala em profissões necessárias que ou estão sendo criadas ou que ainda não existem de fato, tais como: Analista e Gerente de Dados, Consultor de Ética Empresarial, Analista de Cidades Inteligentes, Engenheiro de Computação na Nuvem, Especialista em Personalização de TIC (Tecnologias da Informação e Comunicação), Gerente de Sistemas Ci4ber-Físicos, Gestor de Negócios em Inteligência Artificial (IA), Técnico de Saúde Remota, dentre muitos outros.

 

E, dada a dinâmica do mercado de trabalho (em constante evolução) e o vislumbre das possibilidades de aplicação do ChatGPT, não seria de todo inimaginável pensar no “Editor de ChatGPT” como uma nova, importante e rentável profissão em cada empresa que passar a utilizar o ChatGPT em seus processos. A IA pode ser usada para escrever, mas é a inteligência humana que (por enquanto) determina tudo aquilo que poderá ser editado e divulgado.

 

Além do mais, o ChatGPT somente será de fato útil para alguém se os comandos certos forem utilizados e os bancos de dados forem devidamente alimentados com informações prévias e relevantes (válidas e verdadeiras) sobre aquilo que se deseja seja escrito. É a mente humana associada à experiência vivida que vão avaliar a resposta recebida depois que o ChatGPT escrever. E assim é o ser humano que será chamado a editar os textos gerados pela IA exigindo profissionais qualificados para tanto. E, inevitável, uma vez mais, a adaptabilidade dos profissionais às consequências determinantes do ChatGPT será posta à prova.

 

Porém, a despeito de se estar considerando a ferramenta ChatGPT como uma revolução da IA e uma inovação sem precedentes que está recebendo enorme destaque na sociedade, a ideia central da plataforma não é, em absoluto, inolvidável; dado que inúmeros estudos e desenvolvimentos anteriores já tinham se preocupado exatamente com o mesmo princípio e/ou propósito. A pretensão de se possibilitar ao homem conversar com máquinas (e receber o esperado retorno fidedigno) é um sonho antigo da humanidade. Contudo, ainda não se evoluiu da condição básica operacional de que a partir de um conjunto finito de premissas iniciais se tira uma inevitável conclusão (o que, por si só, pode ser uma fonte ilimitada de erros).

 

Muitos trabalhos, em distintas épocas, com diferentes graus de intensidade, trataram (direta ou indiretamente) a questão da “inteligência artificial” para não apenas ajudar o ser humano a pensar mais adequadamente (ou “a bem pensar”) como, também, para melhorar a sua existência por meio do conhecimento evoluído dedutivamente. Exemplos não faltam. Para citar apenas um, considere a Engenharia Lógica (também chamada de Engenharia Inferencial) que teve sua origem por volta da década de 1989 e cujos pressupostos foram divulgados entre 1999 e 2001 nas obras: “A lógica matemática enquanto agente transformador dos processos inferenciais em matemática superior” (ISBN: 85-900661-2-6); “Compêndios de matemática e lógica matemática: uma abordagem extemporânea” (ISBN: 85-900661-4-2); e, “Lógica matemática: introdução ao cálculo proposicional” (ISBN: 85-900661-3-4).

 

A Engenharia Lógica objetiva transformações na forma de se pensar e de se estabelecer soluções para o mundo real. Entretanto, está centrada em Inferências Lógicas mantendo profundas relações de impregnação mútuas entre a Inteligência Lógica e o Engendrar Inferencial. Sendo área de conhecimento voltada para engendrar e desenvolver métodos e técnicas para a avaliação e correção formal de raciocínios dedutivos estruturados na Computabilidade dos Cálculos Lógicos a Engenharia Lógica é uma forma estrita de Engenharia a qual possibilita tanto engendrar modelos formais de solução de problemas equacionáveis algébrica e logicamente quanto possibilita gerar os meios teóricos para produzir dispositivos automáticos para aferir a validade de raciocínios dedutivos originalmente identificados.

Servindo-se, também, de técnicas formais de avaliação de processos dedutivos direcionadas para a aquisição de conhecimentos, bem como, de métodos algébricos de gerenciamento sistemático de informações tomando por suporte os Cálculos Algébricos da Lógica Matemática Sentencial e da Lógica Matemática Predicativa de Primeira Ordem, a Engenharia Lógica segue (tal qual nos primórdios da IA) orientações dos Filósofos da Antiguidade Clássica, ou seja, as razões suficientes da Lógica Dedutiva Bivalente e Dicotômica.

Mas, há de se salientar que, geralmente, as pessoas ficam deslumbradas, maravilhadas, com ferramentas tecnológicas “encantadoras” (quase “mágicas”) como aquelas do tipo da plataforma ChatGPT sem, contudo, se preocupar, por outro lado, em um primeiro momento, com as inúmeras consequências adversas que podem atingir violentamente toda a sociedade.

 

Embora a preocupação com as consequências maléficas seja enorme, de imediato, o público que está utilizando a ferramenta ChatGPT, dispositivo multifacetado por excelência, não está avaliando que se trata de uma “simulação” de conversação humana em resposta apenas a solicitações ou a perguntas que podem gerar conteúdos até aparentemente convincentes, mas que podem estar incorretos ou que sejam inteiramente nocivos à sociedade.

 

Todo sistema alimentado por IA pode sim gerar erros, surpreender os mais desavisados ou até causar danos irreparáveis em sistemas ou comunidades. Deve-se lembrar, ou nunca perder de vista, que a IA pode armazenar informações em escala infinitamente superior à capacidade do ser humano para tanto, mas não é capaz de “apreender” conhecimento qualquer que seja.

 

Assim sendo, as respostas dadas pela ferramenta ChatGPT vão sempre depender dos “limitados” conteúdos armazenados nos seus bancos de dados. Portanto, é na dependência daquilo que o sistema sabe (e tão somente) que serão apresentadas as respectivas respostas. Logo, inúmeros serão os desafios a vencer antes o sistema possa garantir “segura”.

 

O “transformador pré-treinado gerador de conversas” (ChatGPT, na sigla inglesa para chat generative pre-trained transformer) é, meramente, um chatbot com IA especializado em diálogo. Um chatbot (ou chatterbot) é um programa de computador que se propõe simular um ser humano na conversação com as pessoas objetivando responder as perguntas de maneira que as pessoas tenham a “impressão” de estar, de fato, conversando com outra pessoa e não com um computador.

 

Veja-se, então que quando a pessoa envia suas perguntas em linguagem natural (sua linguagem do dia a dia), o programa instalado vai consultar uma base (sempre estrita) de conhecimento armazenado para em seguida devolver ao usuário uma resposta tentando imitar o comportamento humano (para que, como observado, o humano pense que está sim falando com outro humano). Claro que todo chatbot é, antes de qualquer crítica, pensado como um “modelo de linguagem ajustado com técnicas de aprendizado supervisionado e por reforço”.

 

Muito facilmente, então, poderá se testar o perigo do ChatGPT quanto ao “bem pensar” dado que nem toda pergunta conseguirá ser respondida precisamente de forma dicotômica e bivalente segundo os três princípios fundamentais da Lógica Dedutiva (Princípio da Identidade, Princípio da Não Contradição e Princípio do Terceiro Excluído) os quais fundamentam as chamadas Leis Clássicas do Pensamento.

 

O Princípio da Identidade determina que todo enunciado é logicamente equivalente a si próprio, não podendo ser, no mesmo universo de juízos, outro senão ele próprio. Assim, toda proposição é idêntica a si mesmo. Cada enunciado “é o que é, não podendo ser confundido com outro elemento algum”. Enunciados bivalentes (de dois valores opostos) e dicotômicos (com valores mutuamente excludentes) são tais que “cada enunciado é idêntico a si mesmo”.

 

O Princípio da Não-Contradição, o qual corresponde à segunda das três Leis Clássicas do Pensamento, afirma não ser possí­vel a existência de um enunciado que possa “ser e não-ser” simulta­neamente em um mesmo universo de referência. Assim, duas afirmações contraditórias não podem ter valor verdade ao mesmo tempo em um mesmo universo e sob o mesmo aspecto.

 

O Princípio do Terceiro Excluído (Principium Tertii Exclusi) afirma que todo enunciado “é ou não-é”; de forma que cada enunciado tem, necessariamente, o valor de verdade ou de não-verdade (falsidade) não existindo a possibilidade de um “meio-termo” entre a afirma­ção e a respectiva contradição. Entre verdade e falsidade não pode haver outro valor; ou a proposição é uma verdade ou sua negação é a verdade e não existe outra possibilidade.

 

Não se deve, então, relegar ao plano secundário o fato que os textos produzidos por ferramentas de IA exigem ser editados após sua geração dado que podem, muito facilmente, conter inúmeras contradições (antinomias) ferindo acentuadamente os três Princípios Clássicos do Bem Pensar. E no caso particular das falsidades é observado que o ChatGPT é capaz de escrever “textos falsos” (até mesmo intencionalmente) ou de redigir e-mails de phishing e malware; podendo representar séria ameaça à segurança cibernética.

 

Outro perigo já percebido é que o ChatGPT pode influenciar negativamente a imaginação e a criatividade, principalmente, dos jovens aprendizes ao se deixarem conduzir pela aparente facilidade da ferramenta relevando a própria escrita (que já não é das melhores) a padrões desastrosos; sem contar que o uso não consciente da plataforma poderá agravar, em muito, o aprimoramento do raciocínio em suas diferentes fases e tipos devido ao presente condicionamento limitante.

 

Mas, o ChatGPT tem utilizações excelentes e pode ajudar (e muito) a criar e a desenvolver conteúdos relevantes e necessários em vários campos do saber; podendo ser, também, um efetivo ou grande aliado no cumprimento das tarefas do dia a dia possibilitando, principalmente, agilidade. Inegáveis vantagens para tirar dúvidas, solicitar instruções ou mesmo para gerar projetos e soluções diversas (desde que, é claro, se saiba o que se está pretendo e fazendo).

 

Otimizar o trabalho e alcançar resultados mais rapidamente com significativo menor esforço é uma das interessantes e essenciais características do ChatGPT. Porém, nunca é demais repetir, ser sempre necessário ter muito cuidado ao se utilizar o ChatGPT, pois qualquer modelo centrado em IA é limitado ao tempo uma vez que a base de dados vai estar fixada em um período no passado (mesmo que por uma diferença de segundos anteriores em relação ao agora). O que significa afirmar que toda informação lá contida é do passado e não se encontrarão as informações que transcendam à data da última atualização do banco de dados.

 

Assim, informações contendo erros ou imprecisões são muito normais (frequentes na verdade). A ferramenta deve ser usada apenas “como um meio” para se realizar um trabalho e nunca poderá ser aceita “como um fim” para o trabalho.

 

A própria ferramenta adverte os usuários: “... o sistema pode ocasionalmente gerar informações incorretas ou enganosas e produzir conteúdo ofensivo ou tendencioso. Não se destina a dar conselhos”. Assim sendo, não se deve esquecer que o modelo do ChatGPT “não é perfeito e pode gerar respostas imprecisas ou até mesmo erradas em muitas situações”; sendo o fator humano essencial para avaliar os resultados recebidos.

 

No presente estado de desenvolvimento da IA (embora fantástico e sinalizando possibilidades de aplicações das mais variadas) não substitui as habilidades humanas e não pode ser usada cegamente sem a interconexão com os humanos especialistas (conscientes) no conhecimento que se deseja utilizar. Hoje a IA pode “auxiliar” os humanos a realizarem suas tarefas sugerindo soluções eficientes de problemas apresentando uma gama enorme de possibilidades. Mas, ainda é o mesmo ser humano que deverá decidir se e como utilizará ou não as informações recebidas.

 

De forma geral o ChatGPT pode ser utilizado na automação de tarefas, na programação, na análise de grandes volumes de dados para facilitar o acesso às informações, para gerar maior produtividade, de maneira que o usuário possa adquirir maior tempo livre para aprender e apreender desenvolvendo até novas habilidades. Os tutoriais e as sugestões do Chatbot podem inclusive facilitar (em dada medida) a aprendizagem, dado que possibilitam acesso muito mais rápido à informação. O ChatGPT pode até ser integrado de forma algo eficiente a sistemas de atendimento ao cliente para solucionar problemas rotineiros de forma rápida e dinâmica.

 

Todavia, não se deve esquecer (jamais) que quaisquer informações enviadas pela ferramenta de IA foram captadas da Internet e algumas delas podem sim não ser (de forma alguma) confiáveis. Assim, às desvantagens (ou perigos) do uso do ChatGPT estarão sempre em associação exatamente com as questões da confiabilidade das informações fornecidas pela ferramenta; as quais podem, sim, ser de natureza tendenciosa (intencionalmente).

 

Outros aspectos negativos envolveriam questões como a falta de indicação das fontes consultadas carecendo de provas da correspondente veracidade; as graves questões relacionadas ao plágio sequer cogitadas; a contínua alteração das informações fornecidas as quais mudam conforme o grau de interação e mesmo assim não possibilitando aprender com os próprios erros; dentre outras tantas relacionadas com estas mesmas. Os modelos de linguagem são apenas robôs que tomam decisões necessárias (mas não suficientes) com base em dados e informações não possuindo a capacidade de essencial de intuir como os humanos. A falta da intuição inviabiliza a plena identificação de padrões e tendências outros que não sejam os óbvios e contidos nos próprios dados ou informações manipulados.

 

Mas, o ChatGPT poderá sim transformar a maneira como se pesquisa ou se procuram respostas para solucionar problemas uma vez que, em tese, os objetivos de plataformas semelhantes são trazer benefícios para a humanidade procurando formas cada vez mais atrativas de se manter diálogos naturais mais efetivos entre pessoas e o computador. 

 

E as novidades no campo das conversas entre humanos e IA não vão parar dado que outras possibilidades como a inserção de imagens (fixas ou móveis) nos textos já começam a ser utilizadas. A imagem sempre será uma forma potente de comunicação para transmitir informações ou mesmo emoções de forma assaz eficiente e eficaz. Em princípio, a evolução de ferramentas semelhantes à da ChatGPT é atingir soluções cada vez mais avançadas de forma a ultrapassar as habilidades humanas.

 

Entretanto, como sugerido precedentemente, a adaptabilidade às novas tecnologias (no sentido mais amplo possível) será sempre fundamental para que os humanos possam aproveitar (melhor, ou mais adequadamente) as correspondentes potencialidades das emergentes tecnologias sem deixar que sejam gerados prejuízos para a sociedade e para o meio que circunscreve a vida dos humanos.  

 

Então, a palavra de ordem é cuidado. A despeito de quanto possam parecer impressionantes (ou mesmo cativantes) as ferramentas de IA aplicadas a ferramentas como o ChatGPT jamais se deve esquecer que devolver informações precisas, confiáveis e cem por cento corretas é algo que tecnologicamente está muito longe de acontecer. A efetiva (plena) resolução autônoma de problemas é ainda apenas um “sonho”.

 

A “Literacia Mediática” (“capacidade de aceder, criar, avaliar e compreender as mensagens dos vários meios de comunicação”) de ferramentas baseadas em IA ainda são “sofríveis”, fracas e, principalmente, não confiáveis. Chega-se a pensar no ChatGPT, ou no Bing AI da Microsoft, ou no mais recente Chatbot Bard do Google, ou em quaisquer outras ferramentas semelhantes, como sendo apenas uns “tagarelas” (faladores) que na verdade não sabem bem o que dizem, só falam e falam e falam (sem compromisso algum).

 

Mas, numa avaliação rápida, independentemente de vantagens ou desvantagens percebidas ou não, de perigos ou desafios, e a despeito dos futuros desenvolvimentos e dos progressos de quaisquer assistentes de conversa baseados em IA que possam surgir, são exigidos, de imediato, no presente, no agora, a instituição de regulamentações e de legislações específicas apropriadas para se manter a segurança, a ética, a privacidade e a confiabilidade das informações disseminadas automaticamente por quaisquer robôs ou máquinas.  

 

 

 

 

 

 

 

*Carlos Magno Corrêa Dias é professor, pesquisador, conselheiro consultivo do Conselho das Mil Cabeças da CNTU, conselheiro sênior do Conselho Paranaense de Cidadania Empresarial (CPCE) do Sistema Fiep, líder/fundador do Grupo de Pesquisa em Desenvolvimento Tecnológico e Científico em Engenharia e na Indústria (GPDTCEI) do CNPq, líder/fundador do Grupo de Pesquisa em Lógica e Filosofia da Ciência (GPLFC) do CNPq, personalidade empreendedora do Estado do Paraná pela Assembleia Legislativa do Estado do Paraná (Alep).

 

 

 

 

 

 

Lido 563 vezes
Gostou deste conteúdo? Compartilhe e comente:
Adicionar comentário

Receba o SEESP Notícias *

agenda