Robôs podem ser perigosos? Quixote, um manual de ética para robôs

Por , 12 de Setembro de 2016 a las 07:00
Robôs podem ser perigosos? Quixote, um manual de ética para robôs
Futuro

Robôs podem ser perigosos? Quixote, um manual de ética para robôs

Por , 12 de Setembro de 2016 a las 07:00

Os avanços na inteligência artificial têm levantado temores sobre se os robôs podem agir eticamente ou causar danos aos seres humanos. Assim aparece este primeiro manual sobre “uso de humanos” para robôs.

Os riscos tecnológicos da famosa série Black Mirror podem estar mais perto do que parece. Se você já terminou de assistir a sexta temporada de Game of Thrones, recomendo que embarque nesta incrível série. Os episódios de Black Mirror fazem uma crítica social sobre os usos da tecnologia. Cuidado, não é uma crítica de como a tecnologia está transformando a sociedade, mas até onde poderia chegar sem ética tecnológica.

Uma solução para os possíveis efeitos colaterais da tecnologia

A tecnologia poderia ser a desencadeante de tudo. As conseqüências de um uso não controlado, nas mãos de uma sociedade cada vez menos crítica, podem ser terríveis. Onde estão os limites? Neste cenário como pano de fundo, criar um manual sobre “uso de humanos” para robôs não é nenhum absurdo. O instituto de Tecnologia da Georgia criou um programa de software de inteligência artificial para ensinar robôs a lidar com a ética na sociedade humana.

robotquixote2

O projeto chamado Quixote ensina robôs através de meras histórias, mas poderiam eventualmente prejudicar os seres humanos? A iniciativa inclui dados sobre software para criar um agente virtual, neste caso, um personagem de vídeo game para inseri-lo em histórias diferentes. Então, quando o assistente consegue passar as telas, ganha um ponto positivo através da ação dos personagens das histórias. E, assim, se consegue emular histórias com comportamentos sociais apropriados nesta sociedade. No fim das contas, são histórias baseadas em educar, entreter e refletir o conhecimento cultural e social.

“Durante anos, os pesquisadores têm debatido como ensinar robôs a agir de maneira que sejam apropriadas e não intrusivas e confiáveis. Uma questão importante é como explicar temas complexos tais como política, valores ou ética aos robôs. Os seres humanos são muito bons em usar narrativas que dão sentido ao mundo e se espalham com facilidade entre as pessoas. Isso poderia ser feito um dia para interagir com robôs”, explicou Marc Steingberg, Administrador do Programa de pesquisa da US Navy, que está supervisionando o projeto.

E o futuro?

Os abusos da tecnologia por parte do ser humano podem provocar cenários complexos. Não se engane. Em um futuro distante (ou talvez nem tanto), acabaremos vivendo em instalações informatizadas e robóticas. Uma iniciativa como Quixote, codificada com padrões de comportamento aceitáveis e éticos, é essencial em uma sociedade cada vez mais imersa em tecnologias e redes sociais.

Texto Anterior

A era dos iPhone 7

A era dos iPhone 7
Próximo Texto

A impressão 3D vai a sério: General Electric investe 1.4 bilhões

A impressão 3D vai a sério: General Electric investe 1.4 bilhões

Recomendados