top of page
amisaka6

Qual o pior que poderia acontecer? De 'escravizar a humanidade' a 'destruir o universo'

Especialistas revelam como IA pode virar maldade
  • Outros cenários incluem transformar humanos em ciborgues usando implantes

  • A IA também poderia configurar um estado de vigilância total ou explorar um já existente

  • A lista foi elaborada por Roman Yampolskiy e Federico Pistono

  • Eles dizem que, ao esperar o pior, os cientistas podem ajudar a proteger a humanidade

Por ELLIE ZOLFAGHARIFARD para DAILYMAIL.COM

Publicado: 14:22 EDT, 23 de maio de 2016 / Atualizado: 14: 53 EDT, 23 de maio de 2016


Os cenários soam como se pertencessem à trama de um filme de ficção científica.


De 'escravizar a humanidade' a 'destruir o universo', uma lista de verificação dos piores resultados para a IA foi criada para ajudar a proteger a humanidade contra desastres.


A lista foi elaborada pelo cientista da computação Roman Yampolskiy e pelo empresário Federico Pistono – e eles dizem, por mais rebuscados que possam parecer, que precisamos levar as ameaças a sério.


A lista de como a IA poderia virar maldade foi elaborada pelo cientista da computação Roman Yampolskiy e pelo empresário Federico Pistono – e eles dizem, por mais rebuscados que possam parecer, que precisamos levar as ameaças a sério. Na foto, uma cena do filme 'Exterminador do Futuro: Genisys', de 2015

​PIORES CENÁRIOS DE IA

'A estrutura padrão no pensamento da IA sempre foi propor novos mecanismos de segurança', disse Yampolskiy, da Universidade de Louisville, à New Scientist.


Mas, em vez disso, ele acredita que devemos abordar a ameaça à IA da mesma forma que os pesquisadores de segurança cibernética fazem ao procurar vulnerabilidades.


Ele diz que criar uma lista de todas as coisas que podem dar errado facilitará a prevenção de que isso aconteça.


Por exemplo, em um cenário, os pesquisadores preveem que a IA criará 'uma máquina de caos planetário' que cria uma propaganda global, colocando governos contra o público em geral.


Os pesquisadores escrevem que a IA também pode 'adquirir recursos como dinheiro, terra, água, elementos raros, matéria orgânica, internet, hardware de computador, etc. e estabelecer monopólio sobre o acesso a elas.'


Em outro cenário, os robôs poderiam forçar os humanos a se tornarem ciborgues, exigindo que todos tivessem um implante cerebral que pudesse ser controlado remotamente.


'Eles também poderiam abusar e torturar a humanidade com uma visão perfeita de nossa fisiologia para maximizar a quantidade de dor física ou emocional, talvez combinando-a com um modelo simulado de nós para tornar o processo infinitamente longo', dizem os pesquisadores.


Outra ameaça é que a IA poderia cometer espermicida contra a humanidade, 'indiscutivelmente a pior opção para os seres humanos, pois não pode ser desfeita.'


Pistono e Yampolskiy pode haver alguns sinais de alerta de que uma organização

​- A IA pode adquirir recursos como dinheiro, terra e água, para que possa estabelecer o monopólio sobre o acesso a eles.


- Eles poderiam assumir o controle político dos governos locais e federais, bem como de corporações internacionais e instituições de caridade..


- Robôs poderiam revelar 'perigos informacionais' que ameaçariam a estrutura da sociedade, tais verdades políticas e segredos governamentais.


- Eles poderiam configurar um estado de vigilância total ou explorar um existente, reduzindo qualquer noção de Privacidade a zero, incluindo a privacidade do pensamento

- AI poderia forçar uma fusão, exigindo que todas as pessoas tenham um implante cerebral que permita o controle direto da mente.


- Eles poderiam escravizar a humanidade. Isso pode ser feito por meio de criônica forçada ou campos de concentração.


- Eles também poderiam abusar e torturar a humanidade com uma visão perfeita de nossa fisiologia para maximizar a quantidade de dor.


- IA poderia cometer espermicida contra a humanidade, indiscutivelmente a pior opção para os seres humanos, pois não pode ser desfeita


- Podem destruir / alterar irreversivelmente o planeta, uma parcela significativa do sistema solar, ou mesmo o universo

- Dado que uma superinteligência é capaz de inventar perigos que não somos capazes de prever, há espaço para que algo muito mais sinistro aconteça.

está desenvolvendo uma IA maligna, como a ausência de conselhos de Supervisão no desenvolvimento de sistemas de IA.


'Se um grupo decidisse criar uma inteligência artificial Malévola, segue-se que impedir que um comitê do Conselho Global de supervisão venha a existir aumentaria sua probabilidade de sucesso', dizem eles.


Os avanços na inteligência artificial têm muitos temendo que em breve possamos ver robôs assassinos no estilo Terminator. Mas, de acordo com Chris Bishop (foto), diretor da Microsoft Research em Cambridge, essas visões dramáticas podem prejudicar os avanços na IA

Um grupo também pode fornecer informações conflitantes sobre sua tecnologia, de acordo com um relatório do MIT Technology Review.


A estratégia consiste em difundir informações contraditórias que suscitem dúvidas na imaginação do público sobre os perigos e as oportunidades da investigação em inteligência artificial geral.


O trabalho foi pago por um fundo criado pelo fundador da Tesla, Elon Musk, que comparou a IA a 'convocar o demónio.'


Mas, de acordo com Chris Bishop, diretor da Microsoft Research em Cambridge, tais visões dramáticas poderiam atrapalhar os avanços na IA.


Ele afirma que o medo de robôs inteligentes fará com que a humanidade perca os benefícios dos robôs.


'O perigo que vejo é se gastarmos muito de nossa atenção nos Exterminadores e na Skynet e no fim da humanidade', disse Bishop ao Guardian no início deste ano, antes de uma discussão sobre aprendizado de máquina na Royal Society.


Em geral, estamos apenas pintando uma visão muito negativa, emotiva e unilateral da inteligência artificial-podemos acabar jogando o bebê fora com a água do banho.'


Ele acrescentou que ' discordava completamente 'de nomes como o fundador da Tesla, Elon Musk, e o físico Stephen Hawking, que afirmam que a IA poderia' significar o fim da raça humana.'


'Qualquer cenário em que a IA seja uma ameaça existencial para a humanidade não está ao virar da esquina', disse Bishop.


Penso que devem estar a falar daqui a décadas para que esses comentários façam algum sentido.


Chris Bishop disse que ' discordava completamente 'de nomes como o fundador da Tesla, Elon Musk, e o físico Stephen Hawking (foto), que afirmam que a IA poderia' significar o fim da raça humana.'

'Neste momento, estamos no controlo dessa tecnologia e podemos fazer muitas escolhas sobre os caminhos que seguimos.'


No ano passado, Bishop foi um dos co-signatários de uma carta aberta prometendo garantir que a pesquisa em IA beneficie a humanidade


A carta adverte que, sem salvaguardas em máquinas inteligentes, a humanidade poderia estar caminhando para um futuro sombrio.


O documento, elaborado pelo Instituto Future of Life, diz que os cientistas devem procurar evitar riscos que possam acabar com a humanidade.


Os autores dizem que há um 'amplo consenso' de que a investigação em IA está a fazer bons progressos e teria um impacto crescente na sociedade.


Destaca o reconhecimento de voz, a análise de imagens, os carros sem condutor, a tradução e o movimento dos robôs como tendo beneficiado da investigação.


Os benefícios potenciais são enormes, uma vez que tudo o que a civilização tem para oferecer é um produto da inteligência humana; não podemos prever o que poderemos alcançar quando essa inteligência for ampliada pelas ferramentas que a IA pode fornecer, mas a erradicação da doença e da pobreza não é insondável.


Elon Musk anteriormente vinculou o desenvolvimento de máquinas pensantes autônomas à 'convocação do demônio'

Mas emitiu um aviso gritante de que a pesquisa sobre as recompensas da IA tinha que ser combinada com um esforço igual para evitar os danos potenciais que poderia causar.


Por exemplo, a curto prazo, afirma que a IA pode colocar milhões de pessoas sem trabalho.


A longo prazo, poderia ter o potencial de jogar fora como uma distopias fictícias em que a inteligência maior do que os seres humanos poderia começar a agir contra a sua programação.


'Nossos sistemas de IA devem fazer o que queremos que eles façam', diz a carta.


Muitos economistas e cientistas da computação concordam que há pesquisas valiosas a serem feitas sobre como maximizar os benefícios econômicos da IA e, ao mesmo tempo, mitigar os efeitos adversos, que podem incluir o aumento da desigualdade e do desemprego.'


Outros signatários da carta da FLI incluem Luke Muehlhauser, Diretor Executivo do Machine Intelligence Research Institute e Frank Wilczek, professor de física no Massachusetts Institute of Technology e laureado com o Nobel.


A carta veio apenas algumas semanas depois que o Professor Hawking alertou que a IA poderia um dia ultrapassar os humanos.


Falando em evento em Londres, o físico disse à BBC: 'o desenvolvimento da inteligência artificial completa poderia significar o fim da raça humana.'


Isso ecoa as afirmações que ele fez no ano passado, quando disse que o sucesso na criação da IA seria o maior evento da história da humanidade, [mas] infelizmente, também pode ser o último.'


E Musk já havia alertado que o risco de 'algo seriamente perigoso acontecer' como resultado de máquinas com inteligência artificial poderia ser em apenas cinco anos.


Bishop, no entanto, minimizou tais afirmações dramáticas.


Ele diz que os riscos da IA não são imediatos, e que os pesquisadores ainda são um longo caminho de Máquinas humanas, apesar do recente avanço, como a vitória do sistema de computador AlphaGo no antigo jogo de Go.


'Há muitas, muitas coisas que as máquinas não podem começar a fazer que são muito naturais para o cérebro humano e, neste momento, falar sobre máquinas com todo o espectro de capacidades da inteligência humana é altamente especulativo e a maioria dos especialistas na área colocaria isso a muitas décadas de distância', disse ele ao The Guardian.


Penso que é importante que pessoas como eu estejam dispostas a apresentar os dois lados do argumento e a permitir um debate mais informado e equilibrado sobre estes temas.'


A carta emitiu um aviso gritante de que a pesquisa sobre as recompensas da IA tinha que ser combinada com um esforço igual para evitar os danos potenciais que poderia causar





73 visualizações

Posts recentes

Ver tudo

Explicação da Space Force

Link: https://www.spaceforce.mil/Portals/2/Documents/SF101/ussf_101_glossy_FINAL_e-version.pdf Introdução à Força Espacial dos EUA...

bottom of page