Responsible AI

Conciliando ética, equidade e sustentabilidade em prol da IA responsável

A Rackspace Technology vem definindo normas e políticas e oferecendo governança e supervisão para garantir o uso responsável e ético da IA. Temos o compromisso de usar a tecnologia de forma de acordo com os princípios éticos de responsabilização, justiça, transparência e confiabilidade.

O ChatGPT, da OpenAI, tem sido fundamental para levar a IA ao mercado consumidor tradicional. O ritmo recorde da adoção do produto e das tecnologias de IA generativa com outros modelos fundamentais (como linguagem, código e visuais), acelerou tanto a inovação quanto o uso indevido das tecnologias.

Isso levou algumas empresas a imporem a proibição total das tecnologias e dos produtos nos sistemas corporativos. No atual ritmo da adoção, sem falar nos benefícios do uso responsável da IA, essa proibição total provavelmente será ineficaz. Em vez disso, é mais prudente implementar controles e criar uma cultura de uso responsável da IA. Com isso, as empresas aumentam a conscientização e podem oferecer treinamento sobre os melhores usos dessas tecnologias, além de abordar os possíveis usos indevidos.

 

Como definimos o uso responsável da IA?

Diferente da responsabilização, a responsabilidade não é relegada ao indivíduo ou à co-propriedade, mas à propriedade coletiva. Há responsabilidade quando alguém cumpre autenticamente a palavra. Aplicando isso à IA, deve-se exigir que os desenvolvedores e usuários de IA considerem o potencial impacto desses sistemas nos indivíduos e na sociedade, assumam a responsabilidade e tomem medidas para mitigar os efeitos negativos, de modo que, coletivamente como organização, façamos as escolhas certas.

A IA responsável se refere ao desenvolvimento, à implementação e ao uso da IA de forma ética, confiável, justa e imparcial, transparente e benéfica para indivíduos e a sociedade como um todo. O foco deve ser na inovação, no aumento da produtividade e no uso da tecnologia como ferramenta para eliminar os vieses sociais inerentes. É usar a IA como um sistema que auxilie as decisões e não que tome as decisões.

 

Montando uma cadeia de confiança na IA

Os sistemas de IA têm, inerentemente, várias camadas de informações codificadas como parte dos modelos implementados. Isso representa um desafio para esclarecer quais informações são compartilhadas com plataformas subjacentes para serviços que integram a funcionalidade da IA. Os modelos básicos estão disponíveis em fontes variadas, seja de propriedade exclusiva até de código aberto. Em seguida, eles são expandidos e incorporados a vários modelos funcionais, que são depois incorporados aos produtos.

Pegue, por exemplo, o GitHub Copilot. Começando com o usuário final, os desenvolvedores que usam o Copilot na programação em pares de IA precisam saber o IP de propriedade exclusiva e dos dados compartilhados com a plataforma para, assim cocriarem código. A primeira etapa da cadeia são usuários individuais. As organizações devem adotar políticas e governança para o uso do GitHub Copilot. Essa é a segunda camada de confiança que uma organização deposita ao usar um produto de software.

O GitHub, por sua vez, usa o OpenAI Codex no modelo básico, e o GitHub inclui a cadeia de confiança de nível superior com o OpenAI. Para usarmos de forma responsável, devemos saber o que o GitHub coleta, assim como o que a plataforma OpenAI coleta, neste caso. Isso exige essa cadeia de confiança, na qual o GitHub confia que o OpenAI está fazendo o certo, Já nós confiamos que o GitHub e nossos colegas de trabalho estão usando o serviço de forma responsável.

 

Nossa abordagem ao uso responsável da IA dentro da organização

Os novos recursos resultantes da IA generativa são muito animadores. Há mais demanda para melhorar a produtividade no ambiente de trabalho híbrido com o uso de copilotos de IA, assim como uma vontade de criar uma empresa inteligente com o uso de modelos de IA seguros, econômicos e flexíveis. Queremos fazer tudo isso de forma responsável.

Tomamos algumas medidas para criar políticas práticas, razoáveis e de acordo com nossos casos de uso. Confira as diretrizes que seguimos para isso:

  • Ter políticas simples e fáceis de entender.
  • Criar políticas de classificação de dados; e dar orientações que incluam exemplos concretos da classificação das informações e do uso seguro dos dados.
  • Ensinar e capacitar equipes com princípios e diretrizes responsáveis para IA; e contextualizar as políticas com exemplos reais.
  • Implementar um processo para monitorar o uso ético da IA.
  • Criar um conselho de governança que faça a triagem e validação na aplicação das políticas; e que faça atualizações regulares a elas.

 

Nossas principais políticas para IA:

  • Governança e supervisão: formamos um comitê e definimos responsáveis por fazer a supervisão, conformidade, auditoria e a aplicação das normas de IA.
  • Uso autorizado do software: o uso do software de IA está sujeito à mesma supervisão de compras gerais e do uso interno que reservamos a outros aplicativos de software.
  • Uso responsável e ético: incentivamos o uso ético, a supervisão e a explicabilidade dos modelos de IA. Isso inclui garantir a validade, a confiabilidade, a segurança, a responsabilização, a transparência, nossa capacidade de explicar e interpretar o que é justiça, além da gestão do viés prejudicial.
  • Informações confidenciais: implementamos normas para classificar as informações; e damos orientações claras sobre o uso dos serviços de IA, tudo para garantir a proteção adequada da propriedade intelectual, dos dados regulamentados e das informações confidenciais.
  • Retenção, privacidade e segurança dos dados: seguimos as políticas de gerenciamento e retenção dos dados; e seguimos as políticas da empresa quanto à segurança e à privacidade dos dados.
  • Denúncia: os funcionários são incentivados a denunciar violações às normas da IA de boa fé.

 

Conclusão

Confira um resumo dos nossos princípios orientadores fundamentais para criar políticas e um ambiente socialmente responsável, que promove a inovação e evita o uso e as implicações negativas da IA.

  • IA para o bem – criar e usar o IA para o bem coletivo; e limitar fatores nocivos.
  • Eliminar o viés – ser justo e retirar o viés com algoritmos, conjuntos de dados e aprendizagem por reforço.
  • Responsáveis e explicáveis - devemos nos responsabilizar pelo uso da IA e usos derivados; e empregar a explicabilidade como base de todos os processos de criação de modelos.
  • Privacidade e IP – faremos o uso seguro dos dados corporativos e de propriedade intelectual.
  • Transparência – o uso dos modelos e dos conjuntos de dados será bem catalogado e documentado.
  • Uso ético – monitoraremos e validaremos o uso ético dos conjuntos de dados e da IA.
  • Maior produtividade – nos dedicaremos à adoção da IA para melhorar a produtividade, aumentar a eficiência operacional e estimular a inovação.

 

 

< entidade drupal data-align="left" data-embed-button="media_entity_embed" data-entity-embed-display="view_mode:media.full" data-entity-type="media" data-entity-uuid="ffc70d81-8bc0-42e9-b646-2faec089e354" data-langcode="en"> < /drupal-entity>

Aproveite o poder da IA de forma rápida e responsável com o Foundry for AI da Rackspace Technology (FAIR™). FAIR™ está na vanguarda da inovação global em IA, abrindo caminho para que as empresas acelerem a adoção responsável de soluções de IA. O FAIR se alinha com centenas de casos de uso de IA em uma ampla variedade de setores, ao mesmo tempo que permite a personalização por meio da criação de uma estratégia de IA sob medida que é aplicável às suas necessidades comerciais específicas. Capazes de implantação em qualquer plataforma de nuvem pública privada, híbrida ou de hiperescala, as soluções FAIR capacitam empresas em todo o mundo, indo além da transformação digital para desbloquear a criatividade, estimular a produtividade e abrir a porta para novas áreas de crescimento para nossos clientes.Siga a FAIR no LinkedIn.

Saber mais

 

Join the Conversation: Find Solve on Twitter and LinkedIn, or follow along via RSS.

Stay on top of what's next in technology

Learn about tech trends, innovations and how technologists are working today.

Subscribe
FAIR

Aproveite seu potencial transformador com o Foundry for Generative AI by Rackspace (FAIR™).

About the Authors

Nirmal Ranganathan

Chief Architect - Data & AI

Nirmal Ranganathan

Nirmal Ranganathan is the Chief Architect – Data & AI at Rackspace Technology and responsible for technology strategy and roadmap for Rackspace's Public Cloud Data & AI solutions portfolio, working closely with customers, alliances and partners. Nirmal has worked with data over the past 2 decades, solving distributed systems challenges dealing with large volumes of data, being a customer advocate and helping customers solve their data challenges. Nirmal consults with customers around large-scale databases, data processing, data analytics and data warehousing in the cloud, providing solutions for innovative use cases across industries leveraging AI and Machine Learning.

Read more about Nirmal Ranganathan
Joanne Flack

VP, Deputy General Counsel & Chief Privacy Officer

Joanne Flack

Joanne Flack is Vice President, Deputy General Counsel & Chief Privacy Officer at Rackspace Technology. As part of her role, Joanne is responsible for all privacy, cybersecurity, enterprise risk management, intellectual property, product development and technology legal matters at Rackspace Technology. This includes overseeing appropriate corporate governance and compliant strategy for responsible use of AI, both within Rackspace Technology and in Rackspace Technology’s multicloud solution portfolio. Joanne is an award winning legal executive, and has two decades of in-depth experience in the technology sector. She is a US licensed attorney, a solicitor in England & Wales, an experienced privacy and cybersecurity professional (IAPP Fellow of Information Privacy - FIP, CIPP/US, CIPP/E, CIPT, CIPM; (ISC)² CC, & CISSP candidate), and a COSO certified enterprise risk manager. Joanne is an experienced public company executive, holds an MBA from Imperial College London, and is an NACD certified corporate director.

Read more about Joanne Flack