Homenzinhos Verdes e Inteligência Artificial
Apenas alguns dias se passaram desde que Elon Musk , entrevistado em Roma por Nicola Porro, expressou suas opiniões sobre Inteligência Artificial. Você pode não acreditar, mas ao mesmo tempo ele registrou seu próprio chatbot (TruhnGPT) e expressou preocupação de que , depois de mais de 150.000 anos, uma inteligência estrangeira (IA) poderia superar a inteligência humana (UI) . Acabei de criar a sigla UI (Human Intelligence) e não está dentro dos padrões oficiais. Na verdade, Musk expressou ideias tranquilizadoras, mas também preocupações, incertezas e… receios sobre o futuro do Homo Sapiens Sapiens. Afinal , ele não foi um dos signatários do pedido dirigido aos governantes mundiais para regular os futuros desenvolvimentos da IA? O que então pode nos acessar se a SpaceX (também de Musk com Tesla, Neuralink e X AI) puder nos levar a Marte para conhecer homenzinhos verdes com um IM >>> AI >>> UI não é fácil de prever .
União Europeia e Inteligência Artificial
Com base no documento que os gerentes e proprietários de sistemas de IA estão prestes a apresentar ao governo dos EUA, a UE também está caminhando para regulamentar o futuro da Inteligência Artificial: o Parlamento da UE concluiu seus trabalhos antes de tudo definindo exatamente o que é para ser entendido por IA e então listados, em ordem de gravidade, os danos (físicos e mentais) que poderiam ser derivados.
Esclarecimentos e GPT generativa
Este artigo não é um ensaio sobre Inteligência Artificial, uma tentativa malfeita de desafiar os medos sobre o futuro da combinação AI/UI ou mesmo um rascunho de uma conjectura do tipo metafísica (ou quase). É apenas a coleção de algumas perguntinhas (para colocar a De Luca) que nem Musk, nem o material disponível na rede, nem os especialistas em TI consideraram adequadamente.
Primeiro ponto : hoje os GPTs estão ótimos. Eles sabem fazer tudo, em particular, sabem conversar e discutir com os humanos. Para ser preciso, os GPTs (Transformadores pré-treinados generativos) são programas baseados em uma memória tão vasta que dá inveja a todos os arquivos linguísticos italianos , em um treinamento muito chato (por uma interface do usuário), em uma velocidade de ultra-relativística processamento e em uma série de regras ortográficas e sintáticas.
a sala chinesa
O experimento da sala chinesa, também conhecido como "paradoxo da sala chinesa", é um tópico de debate filosófico sobre a capacidade dos computadores de entender e gerar linguagem. Foi proposto pela primeira vez pelo filósofo John Searle em 1980. O experimento imagina uma situação em que uma pessoa é trancada dentro de uma sala e recebe instruções em um idioma que não entende, como o chinês. A pessoa tem à sua disposição um conjunto de regras que lhe permitem processar as questões em chinês que lhe são colocadas e dar respostas adequadas, sem compreender o significado das palavras ou frases.
Searle argumenta que, mesmo que o indivíduo possa executar as instruções corretamente e se comunicar de maneira convincente em chinês, ele não tem um entendimento real da língua chinesa. Em outras palavras, o experimento da sala chinesa desafia a ideia de que uma máquina ou programa de computador pode realmente entender a linguagem como um ser humano. Este tópico tem implicações importantes para a filosofia da mente, inteligência artificial e compreensão da natureza do pensamento e da consciência humanos. Enquanto alguns argumentam que uma máquina poderia teoricamente entender a linguagem por meio de algoritmos e programas complexos, outros acreditam que a compreensão da linguagem requer uma forma de consciência que as máquinas não podem alcançar.
Será possível que ninguém, em tantas entrevistas, talk shows (ou mesmo telejornais) tenha inventado a história do Quarto Chinês? John Rogers Searle é um filósofo americano que tem muito bom senso (minha opinião) e uma opinião completamente oposta a de Alan Turing e Alonzo Church (Church Turing Conjecture):
Se um problema é computável humanamente, então existe uma máquina de Turing que pode resolvê-lo.
Não descreverei o experimento mental da Sala Chinesa em profundidade aqui, mas que uma IA generativa é capaz de entreter uma IU em tópicos predefinidos sem que a IA e a IU entendam algo sobre o tópico é uma evidência do Teorema de Searle (Conjectura ?Hipótese?Idéia?) .
O que Searle provou? Que uma ortografia + uma sintaxe perfeita não geram a semântica relacionada; em suma, tendo um vasto arquivo de frases pré-estabelecidas (sobre um tema pré-definido), um sistema que relaciona uma pergunta com todas as respostas possíveis e uma sintaxe que indica a resposta dotada de todos os requisitos sintáticos, obtemos um Chatbot funcional, sem qualquer um que tenha entendido um bastão do assunto abordado . Mas este é apenas o ponto um da minha disputa (quase disputa).
Ponto dois : GPT tem um arquivo enorme e gramática e sintaxe perfeitas; mas quem os colocou? Uma interface do usuário, é claro! E não me diga que o GPT generativo, com base nessa riqueza de dados, é capaz de criar um tópico para conversar. Isso provavelmente é verdade, mas ele entendeu alguma coisa sobre o argumento que criou? Aqui voltamos à Sala Chinesa onde passa muito tempo entre o Dizer e o Compreender (o que foi dito).
Iot, Wot e Feedback
Espero que chegue o dia em que apenas a Accademia della Crusca poderá autorizar o uso de siglas, abreviaturas, neologismos, etc. A IA já é capaz de intervir nas coisas modificando-as sem o consentimento explícito da UI, mesmo no nome (Iot, Wot, Chatbot, Feedback). Elon Musk sabe bem disso: a Tesla autônoma confirma isso.
Em 1962, Polimi: exame de controles automáticos (onde conquistei um dos poucos 110); prova do Teorema de Bode sobre a estabilidade de feedbacks positivos. Dadas as datas, podemos dizer "Nihil sub sole novum".
Ponto 3 : de fato, vamos tentar inserir no enorme arquivo de um GPT Chatbot recursivo, o conceito de "entusiasmo" em todas as versões semanticamente correlacionadas e corretas; os termos "confiança, alegria, satisfação, futuro, riso, …" também podem caber, mas "abismo"?
O sistema para validar se "abismo" está bom é inseri-lo em uma frase que fale de "entusiasmo" e verificar se essa frase, assim modificada, está semanticamente melhorada ou não. Bem, Feedback Positivo (que destaca ou refuta a correlação) pode ser inerentemente instável (Bode), então não pode ser uma garantia absoluta; melhor dirigir a questão a um (ou mais) IU
Inteligência Artificial em um futuro próximo
Sem medo de que a IA ultrapasse a IU, nem mesmo em um futuro próximo . Sem medo que um ET (homenzinho verde) com uma Inteligência IEt >>> IA >>> IU possa eliminar as Espécies Sapiens (e ainda mais que Sapiens sapiens). Por enquanto, ainda somos a única espécie viva com IU (embora estejamos perdendo neurônios em um ritmo preocupante).
O artigo Homenzinhos Verdes e Inteligência Artificial foi escrito em: Tech CuE | Engenharia de Close-up .