CEO da Microsoft Brasil fala sobre “ética para inteligência artificial”

Lembra da bot “Tay” que a Microsoft criou para interagir com os usuários no Twitter? A Microsoft aprendeu uma lição com ela

Em março de 2016, há quase dois anos, a Microsoft se viu mergulhada em uma polêmica inesperada. A empresa havia liberado no Twitter um software de inteligência artificial capaz de interagir com os usuários da rede social e aprender a partir disso a se comunicar com seres humanos. Na época, ainda não era tido como fato que redes sociais são, em boa parte, palanques para os piores tipos de seres humanos. Por isso, a ideia de fazer um software inteligente aprender alguma coisa nesse tipo de ambiente não era tão absurda.

A Microsoft, naturalmente, ficou ciente do erro que havia cometido e, em menos de 24 horas, tirou o robô do ar. Nesse meio tempo, entretanto, a Tay começou a publicar tweets raivosos, racistas, nazistas, xenófobos, misóginos e por aí vai. A desenvolvedora então teve que se desculpar e até apagou muitos dos tweets polêmicos. Você pode conferir mais detalhes dessa história aqui.

Leia mais...






Posts Relacionados
          Envie por E-mail  

0 comentários: