CEO da Microsoft Brasil fala sobre “ética para inteligência artificial”
Em março de 2016, há quase dois anos, a Microsoft se viu mergulhada em uma polêmica inesperada. A empresa havia liberado no Twitter um software de inteligência artificial capaz de interagir com os usuários da rede social e aprender a partir disso a se comunicar com seres humanos. Na época, ainda não era tido como fato que redes sociais são, em boa parte, palanques para os piores tipos de seres humanos. Por isso, a ideia de fazer um software inteligente aprender alguma coisa nesse tipo de ambiente não era tão absurda.
A Microsoft, naturalmente, ficou ciente do erro que havia cometido e, em menos de 24 horas, tirou o robô do ar. Nesse meio tempo, entretanto, a Tay começou a publicar tweets raivosos, racistas, nazistas, xenófobos, misóginos e por aí vai. A desenvolvedora então teve que se desculpar e até apagou muitos dos tweets polêmicos. Você pode conferir mais detalhes dessa história aqui.