Alguns especialistas em tecnologia querem interromper o desenvolvimento contínuo de sistemas de inteligência artificial antes que os caminhos neurológicos do aprendizado de máquina entrem em conflito com as intenções de uso de seus criadores humanos. Outros especialistas em informática argumentam que erros são inevitáveis e que o desenvolvimento deve continuar.
Mais de 1.000 técnicos e luminares de IA assinaram recentemente uma petição para que a indústria de computação aceite uma moratória de seis meses no treinamento de sistemas de IA mais poderosos que o GPT-4. Os proponentes querem que os desenvolvedores de IA criem padrões de segurança e mitiguem os riscos potenciais apresentados pelas tecnologias de IA mais arriscadas.
O Future of Life Institute, organização sem fins lucrativos, organizou o petição que exige uma cessação pública e verificável quase imediata por todos os principais desenvolvedores. Caso contrário, os governos devem intervir e instituir uma moratória. A partir desta semana, o Future of Life Institute diz que coletou mais de 50.000 assinaturas que estão passando por seu processo de verificação.
A carta não é uma tentativa de interromper todo o desenvolvimento da IA em geral. Em vez disso, seus apoiadores querem que os desenvolvedores se afastem de uma corrida perigosa “para modelos de caixa preta cada vez maiores e imprevisíveis com recursos emergentes”. Durante o intervalo, os laboratórios de IA e os especialistas independentes devem desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA.
“A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais”, afirma a carta.
Suporte não universal
É duvidoso que alguém faça uma pausa, sugeriu John Bambenek, principal caçador de ameaças da empresa SaaS de análise de segurança e operações Netenrich. Ainda assim, ele vê uma consciência crescente de que a consideração das implicações éticas dos projetos de IA fica muito atrás da velocidade do desenvolvimento.
“Acho bom reavaliar o que estamos fazendo e os impactos profundos que isso terá, pois já vimos algumas falhas espetaculares quando se trata de implantações impensadas de AI/ML”, disse Bambenek ao TechNewsWorld.
Qualquer coisa que façamos para impedir as coisas no espaço da IA provavelmente é apenas ruído, acrescentou Andrew Barratt, vice-presidente da empresa de serviços de consultoria em segurança cibernética. Fogo de carvão. Também é impossível fazer isso globalmente de forma coordenada.
“A IA será o facilitador de produtividade das próximas gerações. O perigo será vê-lo substituir os mecanismos de pesquisa e, em seguida, ser monetizado por anunciantes que “inteligentemente” colocam seus produtos nas respostas. O que é interessante é que o ‘pico’ de medo parece ter sido desencadeado desde a recente quantidade de atenção aplicada ao ChatGPT”, disse Barratt ao TechNewsWorld.
Em vez de fazer uma pausa, Barratt recomenda incentivar os trabalhadores do conhecimento em todo o mundo a analisar como eles podem usar melhor as várias ferramentas de IA que estão se tornando mais amigáveis ao consumidor para ajudar a fornecer produtividade. Os que não o fizerem ficarão para trás.
De acordo com Dave Gerry, CEO da empresa de segurança cibernética de crowdsourcing multidão de insetos, a segurança e a privacidade devem continuar a ser uma das principais preocupações de qualquer empresa de tecnologia, independentemente de ser focada em IA ou não. Quando se trata de IA, é fundamental garantir que o modelo tenha as proteções necessárias, o loop de feedback e o mecanismo para destacar as preocupações de segurança.
“À medida que as organizações adotam rapidamente a IA para obter todos os benefícios de eficiência, produtividade e democratização dos dados, é importante garantir que, à medida que as preocupações sejam identificadas, haja um mecanismo de relatório para trazê-las à tona, da mesma forma que uma vulnerabilidade de segurança seria identificada. e relatados”, disse Gerry ao TechNewsWorld.
Destacando preocupações legítimas
No que poderia ser uma resposta cada vez mais típica à necessidade de regulamentar a IA, o especialista em aprendizado de máquina Anthony Figueroa, cofundador e CTO da empresa de desenvolvimento de software orientada a resultados Rootstrapapoia a regulamentação da inteligência artificial, mas duvida que uma pausa em seu desenvolvimento leve a mudanças significativas.
A Figueroa usa big data e aprendizado de máquina para ajudar as empresas a criar soluções inovadoras para monetizar seus serviços. Mas ele não acredita que os reguladores se movam na velocidade certa e entendam as implicações do que devem regulamentar. Ele vê o desafio como semelhante aos colocados pelas mídias sociais duas décadas atrás.
“Acho que a carta que eles escreveram é importante. Estamos em um ponto de inflexão e temos que começar a pensar no progresso que não tivemos antes. Eu simplesmente não acho que pausar nada por seis meses, um ano, dois anos ou uma década seja viável”, disse Figueroa ao TechNewsWorld.
De repente, tudo alimentado por IA é a próxima grande novidade universal. O sucesso literal da noite para o dia do produto ChatGPT da OpenAI de repente fez o mundo se sentar e perceber o imenso poder e potencial das tecnologias AI e ML.
“Ainda não sabemos as implicações dessa tecnologia. Quais são os perigos disso? Sabemos algumas coisas que podem dar errado com essa faca de dois gumes”, alertou.
A IA precisa de regulamentação?
TechNewsWorld discutiu com Anthony Figueroa as questões que envolvem a necessidade de controles de desenvolvedor de aprendizado de máquina e a necessidade potencial de regulamentação governamental de inteligência artificial.
TechNewsWorld: Dentro da indústria de computação, quais diretrizes e ética existem para manter o controle com segurança?
Antonio Figueroa: Você precisa de seu próprio conjunto de ética pessoal em sua cabeça. Mas mesmo com isso, você pode ter muitas consequências indesejadas. O que estamos fazendo com essa nova tecnologia, ChatGPT, por exemplo, é expor a IA a uma grande quantidade de dados.
Esses dados vêm de fontes públicas e privadas e coisas diferentes. Estamos usando uma técnica chamada deep learning, que tem como base estudar como nosso cérebro funciona.
Como isso afeta o uso de ética e diretrizes?
Figueroa: Às vezes, nem entendemos como a IA resolve um problema de uma determinada maneira. Não entendemos o processo de pensamento dentro do ecossistema de IA. Adicione a isso um conceito chamado explicabilidade. Você deve ser capaz de determinar como uma decisão foi tomada. Mas com IA, isso nem sempre é explicável e tem resultados diferentes.
Como esses fatores são diferentes com a IA?
Figueroa: A IA explicável é um pouco menos poderosa porque você tem mais restrições, mas, novamente, você tem a questão ética.
Por exemplo, considere os médicos tratando de um caso de câncer. Eles têm vários tratamentos disponíveis. Um dos três remédios é totalmente explicável e dará ao paciente 60% de chance de cura. Então eles têm um tratamento inexplicável que, com base em dados históricos, terá 80% de probabilidade de cura, mas eles não sabem bem por quê.
Essa combinação de drogas, juntamente com o DNA do paciente e outros fatores, afeta o resultado. Então, o que o paciente deve tomar? Você sabe, é uma decisão difícil.
Como você define “inteligência” em termos de desenvolvimento de IA?
Figueroa: Podemos definir inteligência como a capacidade de resolver problemas. Os computadores resolvem problemas de uma forma totalmente diferente das pessoas. Nós os resolvemos combinando conscienciosidade e inteligência, o que nos dá a capacidade de sentir as coisas e resolver problemas juntos.
A IA vai resolver problemas concentrando-se nos resultados. Um exemplo típico são os carros autônomos. E se todos os resultados forem ruins?
Um carro autônomo escolherá o menos ruim de todos os resultados possíveis. Se a IA tiver que escolher uma manobra de navegação que matará o “passageiro-motorista” ou matará duas pessoas na estrada que cruzou com um sinal vermelho, você pode defender os dois lados.
Você pode argumentar que os pedestres cometeram um erro. Então a IA fará um julgamento moral e dirá vamos matar os pedestres. Ou a IA pode dizer vamos tentar matar o mínimo possível de pessoas. Não há resposta correta.
E quanto às questões que envolvem a regulamentação?
Figueroa: Acho que a IA tem que ser regulamentada. É viável interromper o desenvolvimento ou a inovação até que tenhamos uma avaliação clara da regulamentação. Nós não vamos ter isso. Não sabemos exatamente o que estamos regulamentando ou como aplicar a regulamentação. Então temos que criar uma nova forma de regular.
Uma das coisas que os desenvolvedores OpenAI fazem bem é construir sua tecnologia à vista de todos. Os desenvolvedores podem trabalhar em sua tecnologia por mais dois anos e criar uma tecnologia muito mais sofisticada. Mas eles decidiram expor o avanço atual para o mundo, para que as pessoas possam começar a pensar sobre a regulamentação e que tipo de regulamentação pode ser aplicada a ela.
Como iniciar o processo de avaliação?
Figueroa: Tudo começa com duas perguntas. Uma delas é, o que é regulação? É uma diretriz feita e mantida por uma autoridade. Então a segunda pergunta é: quem é a autoridade – uma entidade com o poder de dar ordens, tomar decisões e fazer cumprir essas decisões?
Relacionada a essas duas primeiras questões está uma terceira: quem ou quais são os candidatos? Podemos ter um governo localizado em um país ou entidades nacionais separadas, como a ONU, que podem ser impotentes nessas situações.
Onde você tem auto-regulação do setor, pode argumentar que é o melhor caminho a seguir. Mas você terá muitos atores ruins. Você pode ter organizações profissionais, mas aí entra em mais burocracia. Enquanto isso, a IA está se movendo a uma velocidade surpreendente.
O que você considera a melhor abordagem?
Figueroa: Tem que ser uma combinação de governo, indústria, organizações profissionais e talvez ONGs trabalhando juntos. Mas não estou muito otimista e não acho que eles vão encontrar uma solução boa o suficiente para o que está por vir.
Existe uma maneira de lidar com AI e ML para colocar medidas de segurança paliativas se a entidade ultrapassar as diretrizes?
Figueroa: Você sempre pode fazer isso. Mas um desafio é não ser capaz de prever todos os resultados potenciais dessas tecnologias.
No momento, temos todos os grandes nomes do setor – OpenAI, Microsoft, Google – trabalhando em tecnologias mais básicas. Além disso, muitas empresas de IA estão trabalhando com outro nível de abstração, usando a tecnologia que está sendo criada. Mas são as entidades mais antigas.
Então você tem um cérebro genético para fazer o que quiser. Se você tiver a ética e os procedimentos adequados, poderá reduzir os efeitos adversos, aumentar a segurança e reduzir o viés. Mas você não pode eliminar isso de forma alguma. Temos que viver com isso e criar algumas responsabilidades e regulamentos. Se um resultado indesejado acontecer, devemos ser claros sobre de quem é a responsabilidade. Eu acho que isso é fundamental.
O que precisa ser feito agora para traçar o caminho para o uso seguro de IA e ML?
Figueroa: O primeiro é um subtexto de que não sabemos tudo e aceitamos que as consequências negativas vão acontecer. A longo prazo, o objetivo é que os resultados positivos superem em muito os negativos.
Considere que a revolução da IA é imprevisível, mas inevitável no momento. Você pode argumentar que os regulamentos podem ser implementados, e pode ser bom diminuir o ritmo e garantir que estamos o mais seguros possível. Aceite que vamos sofrer algumas consequências negativas com a esperança de que os efeitos a longo prazo sejam muito melhores e nos proporcionem uma sociedade muito melhor.