Direito Digit@l

A regulação da inteligência artificial no Brasil e a Diginidade da pessoa humana - Parte 1

Esses projetos têm como objetivo estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil.

9/12/2022

A comissão de juristas encarregada de elaborar uma proposta de regulação da inteligência artificial no Brasil apresentou o relatório final ao presidente do Senado, Rodrigo Pacheco.

Após 240 dias de trabalho, a comissão apresentou um texto substitutivo com pouco mais de 40 artigos, distribuídos em um relatório com mais de 900 páginas, que foi encaminhado para apreciação dos senadores. A comissão foi instalada em março de 2022 para subsidiar a elaboração da minuta do substitutivo a partir dos projetos de lei (PLs) 5.051/2019, de autoria do senador Styvenson Valentim (Podemos-RN); 21/2020, do deputado Eduardo Bismarck (PDT-CE); e 872/2021, do senador Veneziano Vital do Rêgo (MDB-PB).

Esses projetos têm como objetivo estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil.

A comissão de 18 juristas promoveu reuniões, seminários e audiências públicas divididas por eixos temáticos, com a participação de especialistas e representantes nacionais e internacionais para aprofundar o tema. Foram promovidos 12 painéis temáticos pela comissão, que recebeu 102 manifestações de entidades da sociedade civil organizada, consolidadas no relatório pelos juristas. Também foram criados cinco subgrupos temáticos e promovido um seminário internacional, que discutiu as experiências de inteligência artificial em vigor no mundo a fora. Durante a apresentação do relatório, os membros da comissão foram unânimes em homenagear em suas exposições o jurista Danilo Cesar Maganhoto Doneda, que integrou o colegiado e faleceu Dezembro, porém, deu grandes contribuições.

A relatora da comissão e professora da Universidade de Brasília (UnB) e do Instituto Brasiliense de Direito Público (IDP), Laura Schertel Ferreira Mendes disse que a unanimidade dos juristas em torno do substitutivo foi obtida a partir de um trabalho árduo e a liderança de Ricardo Villas Bôas Cueva.

Agora o texto precisará passar por novas discussões e alterações. Ao término da reunião, o advogado e professor Filipe Medon destacou a iniciativa do Senado em ouvir a sociedade sobre a regulamentação da atividade de inteligência artificial. O Brasil poderá ser tornar um grande marco. Cabe ao Parlamento o aprofundamento das questões suscitadas ao longo do trabalho da comissão.

No relatório final da comissão muitos foram os aspectos apontados para essa regulação que é importante, um avanço, porém, também traz risco. A descriminação dessa tecnologia é um erro, mas há uma necessidade de trabalha-la para que haja menos erros possíveis, mais avanços do que atrasos.

  1. Dois juristas da comissão, MARC ROTENBERG e MARIA PAZ CANALES, enfatizaram a importância de "uma supervisão independente" e indo nesse sentido, WOLFGANG HOFFMANN-RIEM defendeu ser "mportante, em casos de violações, ter uma agência independente por parte do governo para supervisionar e conduzir essa parte da indústria".

  2. Bojana Bellamy destacou algo de relevância em sua fala: "Não se pode regulamentar todo tipo de IA da mesma forma. Há decisões por IA que exercem impacto significativo, um efeito jurídico sobre as pessoas, e é isso que queremos levar em consideração, não quaisquer decisões tomadas por machine learning. Se tivermos que confiar naquilo que Mackenzie falou toda empresa será sobrecarregada. Então, é importante considerar o risco, uma abordagem baseada em risco com base em regras, mas é preciso compreender o que estaremos perdendo se não empregarmos a IA, quais são seus benefícios. Então, é uma forma de balancear, essa é abordagem."

Em relação aos direitos fundamentais é importante destacar alguns pontos que foram abordados e também a intervenção direta do Estado não apenas para controle, mas para cooperação desses sistemas da IA:

  1. Stuart Russel destaca também uma preocupação muito ligada a IA e que precisa ser pensada: "Eu também gostaria de enfatizar a questão dos direitos fundamentais e a sua conexão com a gestão baseada em riscos. Geralmente pensamos sobre sistemas de alto risco, como sistemas de raios-X e carros sem motorista, que podem causar ferimentos ou até morte. Porém, a liberdade do pensamento e a proteção da integridade implicam que os sistemas de informação, tais como mídias sociais ou jogos de computação possam manipular ou utilizar-se de uma linguagem, como a Comissão Europeia chama que possa alterar o comportamento humano. Esses são sistemas de alto risco e devem ser regulados como tais. Por fim, o direito mais fundamental é o direito à vida. E eu acho que seria de valia ressaltar a questão de que o algoritmo nunca deve ficar atento para matar seres humanos."

  2. IRINA ORSSICH afirmou ainda que “os aplicativos militares deveriam ser proibidos”. O que vai de encontro à fala do jurista Stuart em relação à proteção dos direitos fundamentais.

  3. "Especificamente com relação às contribuições da sociedade civil, a Coding Rights [sociedade civil] sugeriu "andar com cautela e prever riscos para evitar danos tem se mostrado uma visão mais coerente com a defesa de nossos direitos fundamentais". A DDAL [sociedade civil] apontou a necessidade de "que o texto substitutivo reconheça expressamente a proteção dos direitos fundamentais como condicionante para o desenvolvimento e implementação de sistemas de IA" além de "desenvolver os instrumentos específicos que assegurem o exercício dos direitos humanos".

  4. "Na academia, o CEEJ [academia] ponderou que "se por um lado, é necessário evitar o sufocamento da inovação social beneficia (…) de outro, as aplicações de sistemas de IA representam uma série de riscos para os direitos humanos, a democracia e o Estado de Direito" 374 e que "no Estado Democrático de Direito brasileiro, o devido processo não abrange apenas a necessidade de eficiência, mas também do resguardo de uma resposta adequada à Constituição."

  5. Nas manifestações dos representantes do setor privado, a Associação Brasileira de Emissoras de Rádio e Televisão (ABERT) [setor privado] destacou ser "indispensável assegurar que a inteligência artificial não seja empregada de forma equivocada, como mecanismo de censura, vigilância e perseguição ou discriminação política", ressaltando ainda que "o regulamento da matéria deve afastar qualquer subjetividade em seus dispositivos, determinando de forma expressa e inequívoca a necessidade de defesa e obrigação de respeito às ‘liberdades, direitos e garantias individuais"·

  6. Pan Dixon em outra abordagem destaca: “Então, aqui, há duas coisas que serão muito importantes. Padrões gerais são muito importantes, mas eu também gostaria de mencionar o que eu chamaria de código de conduta de regulamentação, que é algo que já víamos em documentos, como, por exemplo, regulamentação no que diz respeito ao PIB. Realmente, elas não são utilizadas suficientemente, mas, na IA, isso seria muito útil realmente, porque teríamos milhões de sistemas de IA que iriam ajudar a criar uma interface entre a política e a prática. Realmente, precisamos disso e precisamos de uma visão mais abrangente. Creio que a autorregulamentação não funciona aqui. Creio que isso prova não funcionar, contanto que sejam robustos e significativos."

  7. Outro Jurista, Wolfgang Hoffmann-Riem fala sobre o controle do Estado, a intervenção desses em qualquer sistema de Inteligência artificial até mesmo em setores privados como empresas que adotem a IA: "O Estado tem que trabalhar não só na parte de controle, mas também na parte de cooperação com os sistemas de IA. Empresas não podem estar liberadas e com total autonomia nessa área. O controle do Estado tem que estar presente, bem como a cooperação de Estado. (…). Precisamos protocolar os procedimentos, bem como as máquinas que aprendem. Eu posso claro, através da autorregulamentação… Temos a experiência anterior que nos mostra, pelos códigos e o que a gente já viveu na internet em várias frentes, que pode se perder o controle e isso tomar uma autonomia que a gente não pode controlar depois. A autorregulamentação não pode estar presente, mesmo na criação de códigos, na criação de processos, processo de aprendizado, para que a gente tenha certeza e minimize riscos possíveis através da IA."

No que tange a responsabilidade civil em casos de erros e danos desses sistemas é algo que foi enfatizado:

  1. A questão da responsabilização em casos de danos ou erros desses sistemas. O jurista David Vladeck destacou algo importante para essa regulamentação funcionar. Quem poderia ser responsabilizado caso o sistema falhe, por exemplo, em carros totalmente autônomos e automatizados? Como determinar de onde gerou essa falha: "Se tivesse uma pessoa atrás do volante, talvez essa pessoa, o motorista, não tivesse conseguido evitar a colisão. O que precisamos entender é que o carro dirige a si mesmo. Nos Estados Unidos, a resposta é, certamente, sim. Por quê? Porque, sobre a expectativa do teste do consumidor, a fabricação e o fabricante elevou a um ponto que não é alcançável por seres humanos, um nível de direção. Agora, essa é a pergunta que será respondida pelo júri. E a pergunta do "quem" que meu predecessor abordou. Uma das falhas de um dos milhares de componentes desses carros causou o acidente. O carro está funcionando adequadamente? Se ele estivesse funcionando, ele teria parado em tempo para evitar a colisão. Porém, não o fez. E aí? Talvez seja difícil, é praticamente impossível apontar qual foi à falha. Esse é o problema do ‘quem’. Por vezes, talvez descobrir a partir do manual do fabricante seja algo muito diferente, e sejamos claros que o ônus, na prova do componente que sofreu defeito, caia sobre o colo do fabricante. Em muitos casos, o fabricante será o responsável, muito embora tenha sido um componente, e não quem fabricou o carro. Isso faz sentido? Agora, suponhamos que a falha do carro possa ser atribuída ao computador, que é operado por um software, dos quais há milhões de variantes de carros e diversos componentes de carros não pilotados. Assim, não temos uma resposta clara. Mesmo em casos nos Estados Unidos em que carros Toyota, inesperadamente, aceleraram, e a teoria é de que havia um problema. Mesmo a NASA não foi capaz de determinar se o software causou a falha que causou o acidente."

  2. Outra jurista, Mafalda Miranda Barbosa, destaca exatamente relacionada a esse questionamento em relação à responsabilidade civil: "Uma segunda via de solução será exatamente a constituição de fundos de compensação”. Quem é que contribui para o fundo seria uma questão-chave. Poderia ser um grupo limitado de pessoas, ou então todos os cidadãos, e a responsabilidade simplesmente desapareceria, para dar lugar a uma solução de diferença social, com impacto negativo em termos financeiros. E isso implicaria que não se apuraria sequer a responsabilidade. No fundo, nós estaríamos a renunciar, a avocar a responsabilidade com base em critérios internacionais e, com isso, garantiríamos uma dimensão social do Estado, mas anularíamos a dimensão de justiça do Estado de direito, com consequências nefastas do próprio ponto de vista da eficácia dessas soluções. Por quê? Porque contribuiria para um aumento da opacidade, que já caracteriza os sistemas, e contribuiria para uma perda do sentido preventivo que pode ser reconhecido à responsabilidade civil e aos limites da responsabilidade civil. A rejeição desses fundos de compensação em bloco, como solução prioritária, não significa que não seja de se saudar a previsão de seguros obrigatórios, que possam surgir paredes-meias, pela definição de critérios de importação baseados no risco, que é uma das propostas ao nível europeu. Repare-se, aliás, que a responsabilidade objetiva que se parece desenhar no horizonte europeu não se traduz numa pura responsabilidade pela causalidade, que, aliás, resulta, muitas vezes, problemática a este nível, mas excepcionada que seja aquela previsão excepcionalíssima de uma responsabilidade de garantia, no quadro da responsabilidade por culpa; configura-se verdadeiramente como uma responsabilidade assente num risco que é ponderado e avocado em função das especificidades de cada sistema de IA. E, portanto, parece-me, de fato, preferível que, a existirem fundos de compensação, eles tenham um caráter subsidiário, à boa maneira do que já se verifica noutros domínios, como, por exemplo, no domínio dos acidentes com veículos de circulação terrestre. E em Portugal, nós temos o caso do Fundo de Garantia Automóvel. Mafalda ainda afirmou ser "essencial que haja, efetivamente, uma intervenção do legislador no sentido de criar novas hipóteses de responsabilidade objetiva ou de redefinir algumas das hipóteses de responsabilidade objetiva que já existem", considerando o produtor e o programador, e que é preciso "readaptar e repensar a disciplina da responsabilidade por produtos defeituosos".

  3. Tereza Rodrigues pontuou: "A questão do defeito é que ele é o pilar da responsabilidade do produto defeituoso”. Isso é algo que tem sido questionado de forma bastante crítica no contexto de inteligência da tomada de decisão de Ias. Isso poderia configurar uma situação como defeito, pois isso seria o mesmo que dizer que uma tomada de decisão humana é defeituosa? Pode estar errada, pode carecer de informações, porém não é defectiva em si. A questão do defeito é que ele é o pilar da responsabilidade do produto defeituoso. Isso é algo que tem sido questionado de forma bastante crítica no contexto de inteligência da tomada de decisão de IAs. Então, sim, eu concordo com você. É um ponto-chave, um ponto-chave muito importante. "Aliás", quanto a este ponto – e, já, agora, fazendo aqui uma ponderação daquela que já é a proposta europeia –, a limitação dos danos indenizáveis no quadro da proposta de regulamento europeu em matéria de responsabilidade civil por danos causados pelos sistemas de IA, esta limitação ocorre por outra via. Na tradução portuguesa da diretiva da proposta de regulamento, pode-se ver que ela é aplicável quando uma atividade ou um dispositivo de IA integrado num sistema de IA tenha causado prejuízos ou danos à vida, à saúde, à integridade física de uma pessoa singular, ao patrimônio de uma pessoa singular ou coletiva, ou que tenha causado danos não patrimoniais significativos que resultem numa perda econômica verificável. Do ponto de vista dogmático, o legislador europeu parece confundir aqui o ilícito de culpa, ao mesmo tempo em que parece ignorar a essência daquilo que são os danos não patrimoniais, associando-os a consequências econômicas relevantes. E, se a solução é estranha e causa algum embaraço do ponto de vista dogmático, não menos criticável parece ser a referência ao patrimônio de uma pessoa singular ou coletiva em detrimento da referência que resultaria de uma acepção literal à propriedade. Por quê? Porque se abrem aqui as portas à indenização dos tais danos puramente patrimoniais e abre-se aqui a porta a eventuais situações ou eventuais hipóteses de hiper-responsabilidade. E me parece fundamental que tenhamos em conta que não faz sentido levar uma responsabilidade por danos causados por sistemas autônomos de IA mais longe do que aquilo que resultaria, em geral, da interação entre os seres humanos, o que significa que, se, no quadro geral europeu, não há, em regra, indenização desses danos puramente patrimoniais, só em situações excepcionalíssimas é que se deveria, efetivamente, poder indenizar estes tipos de danos quando esteja em causa um sistema de IA. E, para isso, pode ser fundamental chamar à atuação das regras próprias da responsabilidade contratual. Por exemplo, no âmbito da utilização do robô adwisers no quadro do aconselhamento ao nível dos mercados financeiros. “E aqui eu gostaria de deixar uma outra palavra: é que este problema da causalidade é um problema particularmente complexo.” Ela abordou ainda dentro desse contexto a questão da “causalidade”, que caracterizou como “um problema particularmente complexo”; E aqui eu gostaria de deixar uma outra palavra: é que este problema da causalidade é um problema particularmente complexo. É um problema que suscita e suscitará dificuldades ao jurista quando esteja a lidar com danos causados pelos sistemas de IA. O que se verifica neste domínio é a eventual possibilidade de não se descortinar qualquer violação de um dever por parte do utilizador do software ou do programador inicial, e, por outro lado, o que se verifica é a complexidade do sistema que funciona como um verdadeiro ecossistema. O que significa que, mais do que repensar o problema da causalidade, tentando estabelecer presunções de causalidade ou tentando inverter o ônus da prova, uma vez que facilmente poderia depois ser elidida essa presunção, nós temos que assumir verdadeiramente o problema da causalidade como ela deve ser assumida em geral, que é como um sistema de imputação objetiva. Portanto, o problema da causalidade deve ser necessariamente ponderado a este nível como um sistema efetivado e alicerçado no confronto de esferas de risco. O operador, ao assumir o risco e o controle do risco inerente a um sistema de IA, assume uma determinada esfera de risco e tem que cumprir uma série de deveres de inteligência no manuseamento desse sistema de IA. Se o fizer, ele não será responsabilizado; se não fizer esse role responsability de que parte, confirmada por esses deveres, transformar-se-á numa outra esfera, numa esfera de liability, numa esfera já não de responsabilidade pelo outro, mas numa esfera de responsabilidade perante o outro. O que significa que, em relação a todos os danos ou todas as lesões que sejam possivelmente causadas por aquele sistema de IA, cujo risco e controles poderão ser encurtados, ele poderá ter que vir a responder por esses danos, o que não significa que efetivamente venha a responder. Por quê? Porque depois nós temos que confrontar essa primitiva esfera de risco de responsabilidade com outras esferas de risco de responsabilidade, designadamente, a esfera de risco de responsabilidade geral, de vida, e vamos recusar a imputação sempre que a presença do bem jurídico apenas tenha sido determinada no tempo e no espaço pela utilização do sistema de IA, mas também com a própria esfera de risco de responsabilidade do usado e com a esfera do risco de responsabilidade de eventuais terceiros. O que significa que, em última instância, confluindo de várias causas, é possível que haja ou soluções de solidariedade obrigacional e de responsabilidade solidária ou eventualmente a afirmação de um único responsável, quando possa ser identificado. Mas essa identificação ocorrerá depois, no seio das relações internas, e muitas vezes no quadro do exercício de direito de regresso entre os vários corresponsáveis solidariamente, cuja responsabilidade se desenha nesses termos imputacionais, a partir desse confronto de esferas de risco."

Das definições da IA:

  1. "No setor privado", algumas contribuições apontaram para a adoção de definições menos amplas, mais limitadas, como a da Associação Brasileira das Empresas de Software (ABES) [setor privado], que afirmou ser um consenso "evitar definições muito amplas ou puramente técnicas" e que o "substitutivo aprovado foi muito hábil em limitar o seu escopo de aplicação". A Associação de Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais (BRASSCOM) [setor privado], no mesmo sentido, afirmou que "uma definição mais restrita é necessária para evitar o excesso de regulação". A seu turno, para a Federação Brasileira de Bancos (FEBRABAN) [setor privado], “o conceito é amplo demais e traz insegurança jurídica", e, para o Information Technology Industry Council (ITIC) [setor privado], “o Brasil deve evitar criar uma definição ampla de IA".

Houve ainda, no setor privado, contribuições pleiteando "uma definição genérica", a exemplo da Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FECOMERCIO/SP) [setor privado] e da Federação das Indústrias do Estado de São Paulo (FIESP) [setor privado], ou recomendando “evitar (…) a adoção de uma definição prescritiva", como a da Associação Latino-americana de Internet (ALAI) [setor privado]. Algumas das contribuições alertaram que a automação não deveria ser incluída no conceito de IA, como a do Instituto de Referência em Internet e Sociedade (IRIS) [sociedade civil] e a da Brasscom [setor privado]. A Subsecretaria de Inovação e Transformação Digital do Ministério da Economia (SIN/ME) [governo] enfatizou que "é preciso que o marco legal de IA traga uma seção inteira dedicada a definições".

Em relação à observância das normas legais:

  1. Associação Brasileira de Internet (ABRANET) [setor privado] é preciso que a proposta "considere a existência de princípios sólidos no ordenamento jurídico brasileiro já aplicáveis a IA, constantes no Marco Civil da Internet, na LGPD e no Plano Nacional de Internet das Coisas, de modo a evitar a duplicidade normativa"; para a Associação Brasileira de Anunciantes (ABA) [setor privado], "a regulação da IA deve adotar regras (…) complementares às normas jurídicas já existentes”; para o Itic [setor privado], deve-se "apenas proceder para as abordagens regulatórias quando forem identificadas lacunas”; para o Centre for Information Policy Leadership (CIPL) [setor privado], "deve se basear nas estruturas legais existentes e evitar duplicar ou criar quaisquer exigências conflitantes com essas estruturas (...)". Ainda sobre essa questão, o Instituto Brasileiro de Defesa do Consumidor (IDEC) [sociedade civil] ressaltou a necessidade de se observarem os direitos dos consumidores e destacou que "o diálogo com a LGPD será central".

Reconhecimento facial foi um dos temas mais suscitados relacionados à regulação baseada em riscos:

  1. "foram às aplicações de reconhecimento facial". As contribuições da sociedade civil, de modo geral, propuseram o banimento desse tipo de sistema, de forma ampla ou em contextos específicos. Nesse sentido, a CDR [sociedade civil], requereu "o banimento total do uso das tecnologias digitais de Reconhecimento Facial na Segurança Pública no Brasil".

  2. A Polícia Federal [governo], de outro modo, prestou "esclarecimentos para se evitar o banimento do uso do reconhecimento facial para a Segurança Pública", argumentando, em síntese, que "não deverá ser a máquina quem tomará a decisão final, e, sim, um ser humano devidamente treinado e que responderá pelo seu erro".

Documento na íntegra.

Veja mais no portal
cadastre-se, comente, saiba mais

Colunistas

Coriolano Aurélio de Almeida Camargo Santos é advogado e Presidente da Digital Law Academy. Ph.D., ocupa o cargo de Conselheiro Estadual da Ordem dos Advogados do Brasil, Seção São Paulo (OAB/SP), com mandatos entre 2013-2018 e 2022-2024. É membro da Comissão Nacional de Inteligência Artificial do Conselho Federal da OAB. Foi convidado pela Mesa do Congresso Nacional para criar e coordenar a comissão de Juristas que promoveu a audiência pública sobre a criação da Autoridade Nacional de Proteção de Dados, realizada em 24 de maio de 2019. Possui destacada carreira acadêmica, tendo atuado como professor convidado da Università Sapienza (Roma), IPBEJA (Portugal), Granada, Navarra e Universidade Complutense de Madrid (Espanha). Foi convidado pelo Supremo Tribunal Federal em duas ocasiões para discutir temas ligados ao Direito e à Tecnologia. Também atua como professor e coordenador do programa de Lei Geral de Proteção de Dados (LGPD) da Escola Superior de Advocacia Nacional do Conselho Federal é o órgão máximo na estrutura da Ordem dos Advogados do Brasil (CFOAB). Foi fundador e presidente da Comissão de Direito Digital e Compliance da OAB/SP (2005-2018). Atuou como Juiz do Tribunal de Impostos e Taxas de São Paulo (2005-2021) e fundou a Comissão do Contencioso Administrativo Tributário da OAB/SP em 2014. Na área de arbitragem, é membro da Câmara Empresarial de Arbitragem da FECOMERCIO, OAB/SP e da Câmara Arbitral Internacional de Paris. Foi membro do Conselho Jurídico da FIESP (2011-2020) e diretor do Departamento Jurídico da mesma entidade (2015-2022). Atualmente desempenha o papel de Diretor Jurídico do DEJUR do CIESP. Foi coordenador do Grupo de Estudos de Direito Digital da FIESP (2015/2020). Foi convidado e atuou como pesquisador junto ao Conselho Nacional de Justiça (CNJ), em 2010, para tratar da segurança física e digital de processos findos. Além disso, ocupou o cargo de Diretor Titular do Centro do Comércio da FECOMERCIO (2011-2017) e foi conselheiro do Conselho de Tecnologia da Informação e Comunicação da FECOMERCIO (2006-2010). Desde 2007, é membro do Conselho Superior de Direito da FecomercioSP. Atua como professor de pós-graduação da Universidade Presbiteriana Mackenzie desde 2007, nos cursos de Direito e Tecnologia, tendo lecionado no curso de Direito Digital da Fundação Getúlio Vargas, IMPACTA Tecnologia e no MBA em Direito Eletrônico da EPD. Ainda coordenou e fundou o Programa de Pós-Graduação em Direito Digital e Compliance do Ibmec/Damásio. É Mestre em Direito na Sociedade da Informação pela FMU (2007) e Doutor em Direito pela FADISP (2014). Lecionou na Escola de Magistrados da Justiça Federal da 3ª Região, Academia Nacional de Polícia Federal, Governo do Estado de São Paulo e Congresso Nacional, em eventos em parceria com o Departamento de Justiça dos Estados Unidos, INTERPOL e Conselho da Europa. Como parte de sua atuação internacional, é membro da International High Technology Crime Investigation Association (HTCIA) e integrou o Conselho Científico de Conferências de âmbito mundial (ICCyber), com o apoio e suporte da Diretoria Técnico-Científica do Departamento de Polícia Federal, Federal Bureau of Investigation (FBI/USA), Australian Federal Police (AFP) e Guarda Civil da Espanha. Além disso, foi professor convidado em instituições e empresas de grande porte, como Empresa Brasileira de Aeronáutica (EMBRAER), Banco Santander e Microsoft, bem como palestrou em eventos como Fenalaw/FGV.GRC-Meeting, entre outros. Foi professor colaborador da AMCHAM e SUCESU. Em sua atuação junto ao Conselho Nacional de Política Fazendária (CONFAZ), apresentou uma coletânea de pareceres colaborativos à ação governamental, alcançando resultados significativos com a publicação de Convênios e Atos COTEPE voltados para a segurança e integração nacional do sistema tributário e tecnológico. Também é autor do primeiro Internet-Book da OAB/SP, que aborda temas de tributação, direito eletrônico e sociedade da informação, e é colunista em Direito Digital, Inovação e Proteção de Dados do Portal Migalhas, entre outros. Em sua atuação prática, destaca-se nas áreas do Direito Digital, Inovação, Proteção de Dados, Tributário e Empresarial, com experiência jurídica desde 1988.

Leila Chevtchuk, eleita por aclamação pelos ministros do TST integrou o Conselho Consultivo da Escola Nacional de Formação e Aperfeiçoamento de Magistrados do Trabalho – ENAMAT. Em 2019 realizou visita técnico científica a INTERPOL em Lyon na França e EUROPOL em 2020 em Haia na Holanda. Desembargadora, desde 2010, foi Diretora da Escola Judicial do Tribunal Regional do Trabalho da 2ª região. Pela USP é especialista em transtornos mentais relacionados ao trabalho e em psicologia da saúde ocupacional. Formada em Direito pela USP. Pós-graduada pela Universidade de Lisboa, na área de Direito do Trabalho. Mestre em Relações do Trabalho pela PUC e doutorado na Universidade Autôno de Lisboa.