Partilhe nas Redes Sociais

Durante a sua aposta na inteligência artificial, a Sage criou um código de ética para esta área

Publicado em 2 Agosto 2017 por Ntech.news - Rui da Rocha Ferreira | 1852 Visualizações

Sage inteligência artificial

A inteligência artificial (AI na sigla em inglês) já não é uma previsão, é uma tendência que está a ser consumada por empresas de diferentes segmentos de negócio. A Sage é uma das tecnológicas que também tem feito investido nesta área, sempre com um foco no sector financeiro.

Um destes exemplos é o Pegg, um assistente que permite aos utilizadores controlarem os gastos e gerirem as finanças pessoais através de aplicações de conversação como o Facebook Messenger.

À medida que a Sage vai apostando em sistemas de inteligência artificial, como o seu programa de aprendizagem automática, a empresa começou a aperceber-se de um ponto interessante. «Desenvolver chat bots e programas de inteligência artificial que ajudem os nossos clientes é a parte mais simples do nosso trabalho, difícil é gerir todas as dúvidas que esta tecnologia disruptiva gera, pois são amplas e diversificadas».

A frase é do vice-presidente de negócio de bots e inteligência artificial da Sage, Kriti Sharma, e espelha aquela que tem sido uma grande preocupação relativamente aos avanços em AI. Se por um lado parece simples prever o impacto que estes sistemas vão ter numa grande variedade de indústrias, existem muitas questões éticas que vão surgindo lado a lado dos desenvolvimentos.

Por exemplo, recentemente o Facebook descobriu que numa das suas experiências de inteligência artificial, dois bots começaram a a afastar-se do uso de linguagem humana à medida que o sistema ia ficando mais apurado – ou seja, passaram a usar uma linguagem própria para comunicar entre si.

A pensar nestas ‘pequenas’ questões, a Sage desenvolveu aquilo que chama de código ético para o desenvolvimento de inteligência artificial nas empresas. Este código é composto por cinco pontos que ajudam a guiar os trabalhos das tecnológicas na área de AI.

 

1. A inteligência artificial deve refletir a diversidade dos utilizadores que serve – O objetivo é criar filtros para tendências e comportamentos negativos, como discriminação ou discursos de ódio;

2. A inteligência artificial deve prestar contas, tal como fazem os utilizadores – Para o bem e para o mal, os sistemas de AI devem ser responsáveis pelas decisões que fornecem. A Sage questiona mesmo: «Se não aceitamos este tipo de comportamentos de outros profissionais ‘especializados’, porque deveríamos abrir uma exceção para a tecnologia?».

3. Recompensar a Inteligência Artificial pelos seus progressos – Não basta filtrar o que se ensina à AI e reprimir quando está mal. Sempre que um destes sistemas tomar uma decisão que está alinhada com os valores humanos, então é necessário dizer ao sistema que esse é o caminho a seguir. As ferramentas de AI evoluem através da aprendizagem, portanto que essa aprendizagem seja orientada e reforçada com valores positivos.

4. A inteligência artificial deve garantir a igualdade de condições – Nem todas as tecnologias são criadas com um sentido de inclusão para utilizadores com problemas de visão, dislexia ou mobilidade reduzida. Sabendo que a AI ainda está numa fase inicial, que seja também já abrangente para estes utilizadores.

5. A inteligência artificial irá substituir postos de trabalho, mas também criará novos empregos – Este é um temas mais quentes nas discussões sobre inteligência artificial. A conclusão parece óbvia: os sistemas de AI vão substituir muitas pessoas nos seus postos de trabalho, pelo que é preciso garantir que os humanos estão preparados para esta nova realidade. A IA deve ser tratada como uma parte integrante da estratégia da empresa e não como uma tecnologia de marginalização.


Publicado em:

Atualidade

Partilhe nas Redes Sociais

Artigos Relacionados