Direito Digit@l

Chat GPT-4 mentiu? Será a IA o começo do nosso fim?*

Existem diversas opções para utilizar de forma prática e funcional a ferramenta gratuita ChatGPT em escritórios de advocacia.

31/3/2023

ChatGPT: um pouco da realidade - muito útil, mas use com atenção.

Muito se tem falado sobre a ferramenta ChatGPT disponibilizada gratuitamente e operacional no website da empresa OpenAI na rede mundial de computadores da Internet. Este serviço de Chatbot conversacional, apoiado pela Inteligência Artificial Generalizada (AGI), como muitos outros, ganhou notoriedade através de manchetes, artigos e publicações com um viés sensacionalista e especulatório em todo o mundo.

Temos observado muitas pessoas teorizando sobre o uso da Inteligência Artificial aplicada a soluções jurídicas, como se isso fosse uma grande novidade ou que as técnicas empregadas na programação integrada da solução ChatGPT da OpenAI já não fossem consolidadas há bastante tempo. É importante lembrar que o GPT, no final das contas, é um modelo composto por processamento de linguagem natural (PLN/LLMs) para conversação, baseado em rede neural generativa pré-treinada. Seu programa é composto por várias camadas de algoritmos de Inteligência Artificial (IA), incluindo principalmente o algoritmo "Transformer" de aprendizagem profunda de máquinas com mecanismos de auto-atenção, desenvolvido em 2017 por equipe do projeto "Google Brain".

Entendemos que, para contribuir com os leitores, temos que ser realistas, tecnicamente precisos e desapaixonados. Não podemos continuar na teorização fundada no subjetivismo do "eu acho que".

Fundamentando a IA: os aspectos técnicos das soluções de programas de computador enquadrados na classe de "Inteligência Artificial" são irrelevantes no momento. No entanto, são programas que utilizam uma variedade de tecnologias e processos que permitem que os computadores executem tarefas que normalmente exigiriam inteligência humana, como reconhecimento de fala, visão computacional, processamento de linguagem natural e tomada de decisões baseadas em dados.

Fundamentando programa de IA e Algoritmos:  tecnicamente, um programa de computador ou um algoritmo são muito parecidos, mas vamos compreender:

Um programa de computador é um conjunto de instruções escritas em uma linguagem de programação que indicam a um computador o que fazer. Essas instruções são compiladas, traduzidas em um arquivo executável que pode ser processado em um computador para realizar tarefas específicas. Um programa de computador pode ser uma aplicação de software completa, como o ChatGPT, ou pode ser uma parte de uma aplicação maior, como um módulo em sistema integrado de gestão empresarial (ERP).

Um algoritmo é uma sequência de passos ou instruções precisas que descrevem como resolver um problema, como é o caso do Algoritmo "Transformer". Em outras palavras, um algoritmo é uma receita, uma fórmula matemática ou um processo pré-definido que descreve como executar uma tarefa específica para chegar a um resultado. Os algoritmos podem ser escritos em pseudocódigo ou em uma linguagem de programação, mas eles não são necessariamente programas de computador executáveis, completos, mas normalmente fazem parte deles.

Voltando ao programa de IA ChatGPT, o grande mérito dele ou da OpenAI, que usa o algoritmo ‘Transformer’, está centrado na arquitetura de programação (código-fonte aberto) e no investimento financeiro, isto é, no custoso processamento de dados. Esse custo inclui os pré-processamentos das bases de dados de conhecimento, os pré-treinamentos do modelo, o volume das bases de dados utilizadas e a fabulosa geração de resultados de parâmetros obtidos, proporcionando o funcionamento operacional do programa, como os usuários vivenciam.

O programa ChatGPT utiliza parâmetros e bases de dados de conhecimento para funcionar. Os parâmetros são valores numéricos calculados e ajustados durante o treinamento do modelo de linguagem, e são usados para controlar como o modelo processa e gera textos de respostas. Esses parâmetros são definidos pelas arquiteturas de redes neurais que o modelo utiliza, como o número de camadas, o tamanho do vocabulário e o número de unidades de processamento em cada camada.

A base de dados utilizada para treinar o modelo de linguagem consiste em uma grande quantidade de dados de linguagem natural, como textos, artigos ou conversas, que foram pré-processados para se adequar ao treinamento do modelo. Durante o treinamento, o modelo é exposto a diversas sequências de texto e aprende a prever a próxima palavra em uma sequência, com base nas palavras anteriores, permitindo que o modelo gere textos naturais e coerentes ao ser alimentado com dados em um prompt.

A relação entre a quantidade de parâmetros gerados e o tamanho da base de dados de conhecimento é crucial, pois os parâmetros do modelo são ajustados durante o treinamento com base nos dados da base de conhecimento. Isso significa que os parâmetros são ajustados para otimizar o desempenho do modelo em prever a próxima palavra em uma sequência de texto, com base nos dados de treinamento, para que o modelo gere textos semelhantes em estilo e tom ao texto original na base de dados.

Atualmente, a ferramenta ChatGPT disponibilizada gratuitamente possui limitações práticas em relação ao tamanho da base de dados de conhecimento pré-processada utilizada para a geração da quantidade de parâmetros. A versão ChatGPT-3, lançada em 2020, utilizou uma base de dados de conhecimento composta por textos da Wikipédia, books do Google, textos de jornais em sites web, conteúdos de textos da rede social Reddit, e outros, totalizando 570Gb, somados a um vocabulário de 300 bilhões de palavras para respostas em texto, totalizando 753Gb. A partir dessa base de dados, foram gerados 175 bilhões de parâmetros operacionais, permitindo que a ferramenta surpreendesse muitas pessoas com sua capacidade conversacional, mas ainda muito limitada em conhecimento.

A versão mais recente da ferramenta, ChatGPT-3,5 lançada em novembro de 2022, conta com uma base de conhecimento significativamente maior, incluindo 10 bilhões de palavras para respostas, totalizando 45Tb de dados no pré-processamento. No entanto, o pré-treinamento foi limitado aos mesmos 175 bilhões de parâmetros operacionais, mantendo as limitações da ferramenta em relação as conversações. Ambas as versões, ChatGPT gratuita em uso e ChatGPT Plus, paga, possuem essas características.

Especificando o ChatGPT-4, lançado em 15 de março de 2023: Apesar das notícias desencontradas e informações escassas, sabemos que o GPT-4(1) foi treinado com 100 terabytes de dados na base de conhecimento e processou 01 trilhão de parâmetros. Parece muito, mas não é. Porém, a base de dados de conhecimento de 100 Tb ainda é irrisória, considerando que o relatório "Data Age 2025", do IDC, especifica que a quantidade de dados criada, capturada, copiada e consumida em 2018 pelos websites da internet foi de 33 zettabytes, ou 33 trilhões de gigabytes. Esse número cresceu, em 2020, para 59 ZB e espera-se que alcance 175 ZB até 2025. Compreenda que 01 Zettabyte [ZB] é igual a 1.073.741.824 Terabyte [Tb].

Mas o GPT-4 evoluiu, ganhando novas funcionalidades, especialmente pesquisas através de prompts com entradas em textos e imagens.

O problema é: qual o significado do tamanho da base de dados de conhecimento para o funcionamento do modelo de IA generativa do ChatGPT?

Refletir sobre isso é simples. Se os 100Tb da base de dados de conhecimento não contiverem dados sobre, por exemplo; as leis brasileiras, torna-se impossível para o ChatGPT responder com precisão sobre elas. O máximo que ele pode fazer é correlacionar informações de artigos, notícias, livros e redes sociais que tratem do tema para responder aos prompts de questionamento.

Na prática, em nossos testes com o atual ChatGPT-3.5, ele afirma conhecer a Lei 13.709:2018, mas, na verdade, não a conhece. Ele pode escrever sobre ela com razoável qualidade, mas o nível de erro é elevado por não dispor das legislações dos países em geral, em sua base de conhecimento.

Tudo fica complicado para os advogados?

Não.

Existem diversas opções para utilizar de forma prática e funcional a ferramenta gratuita ChatGPT em escritórios de advocacia. A principal alternativa, e também a mais simples, é a capacitação dos usuários da ferramenta para explorar suas características e funcionalidades por meio de comandos e diretivas em sua sintaxe, abrangida por sua arquitetura de ‘prompt’. Por meio dos ‘prompts’, é possível explorar muitas das potencialidades da ferramenta ChatGPT de forma efetiva. A necessidade percebida de conhecer como construir ‘prompts’ escritos em sua sintaxe natural, usar verbos, comandos e pontuações para obter melhores e mais consistentes respostas da ferramenta, já está despertando nos meios acadêmicos o desenvolvimento de programas curriculares complementares específicos, que estão sendo denominados de "Engenharia de Prompt", como uma possível nova profissão no futuro.

Em nossa pesquisa avançada, observamos que um conjunto de melhores práticas e comandos adequadamente grafados e pontuados na sintaxe correta, realmente permite alcançar respostas mais completas e precisas no uso do ChatGPT, em sua versão 3.5 atual.

O ChatGPT pode ser integrado às aplicações dos escritórios por meio das versões pagas, ChatGPT Plus ou Pro. Isso pode ser feito por meio da aplicação de um programa de computador chamado API “ChatCompletions gpt-3.5-turbo” da OpenAI, onde API significa "Application Programming Interface" ou interface para aplicações por programação. Esse programa permite que os técnicos desenvolvedores dos sistemas e aplicações que tenham Bases de Dados da legislação nacional e jurisprudencial, em uso na organização, possam agregar a API, permitindo o acesso pela Internet ao programa do ChatGPT e este consultar essas bases de dados privada.

Hoje em dia, já é possível usar ‘plug-ins’ do ChatGPT que estão disponíveis para conectar de maneira segura o ChatGPT a aplicativos da web por meio da Internet, usando o protocolo HTTPS. Alguns navegadores, como o Microsoft Edge e o Opera, já estão integrando o acesso ao ChatGPT Plus/Pro (pago) em suas funcionalidades, inclusive nos mecanismos de busca (Search Engines URLs).

Riscos do ChatGPT em atividades jurídicas

Não há nada perfeito. O ChatGPT possui muitas limitações que são naturais de seu estágio de maturidade inicial. Embora o GPT tenha sido desenvolvido em 2015 pela OpenAI, o programa evoluiu muito, deixou de ser de código aberto e livre, tornou-se produto comercial e, agora, com sua versão gratuita GPT-3.5, nós, usuários, estamos contribuindo para seu treinamento e evolução, com nossas consultas e interatividade massiva.

De forma geral, o ChatGPT é um programa de computador sujeito a erros humanos que são considerados BIAS (viés) algorítmicos, que podem distorcer ou perverter respostas por falhas de treinamento, inclusive reconhecidos pela OpenAI no lançamento da versão 4, onde se aborda a "dirigibilidade" do comportamento da AI, e as limitações informando que "ainda não é totalmente confiável (ele 'alucina' fatos e comete erros de raciocínio)".

A OpenAI também aborda na versão 4, os riscos e as mitigações, informando que "apresenta riscos semelhantes aos modelos anteriores, como gerar conselhos prejudiciais, código com erros ou informações imprecisas".

Mas o problema é muito maior e exige atenção e prevenção dos usuários. Vamos refletir:

O programa ChatGPT é operacional através de um website, operando na rede mundial Internet, portanto, sujeito aos mesmos problemas de cibersegurança como qualquer web site ou aplicação online.

No uso de prompts, é permitido o ingresso de dados para que a ferramenta faça análise de textos, síntese de texto, produza minutas de publicações como convites, entre diversas outras possibilidades, através do processo de conversação contínua. Nesse caso, a ferramenta armazena todos os diálogos em arquivo LOG nas máquinas onde o website e a aplicação estão hospedados.

Imagine entrar no prompt do ChatGPT com textos de um contrato sigiloso, onde se possuem dados de qualificação das partes, dados da negociação e, muitas vezes, dados sensíveis. Esses dados ficarão guardados na OpenAI. O problema é que já houve vazamentos de dados - veja a manchete e a notícia do site tecnoblog.net: "A OpenAI informou nesta sexta-feira (24/03/23) que 1,2% dos assinantes do ChatGPT Plus tiveram dados pessoais vazados. A causa foi o bug que mostrava o histórico de outros usuários para outras contas. A OpenAI informa que já entrou em contato com os membros do ChatGPT Plus que foram vítimas do vazamento." O impacto na privacidade pessoal e nos direitos dos titulares, continua sendo alto, em atendimento à nossa LGPD, por exemplo. 

Concluindo

Poderíamos avançar e aprofundar dezenas de abordagens relacionadas às ferramentas e ao mercado de ChatBots e AIs generativas como o ChatGPT, mas pedimos a atenção dos leitores nestes pontos chaves sobre o que é a ferramenta, suas capacidades, seus riscos e cuidados. É bom lembrar que, por mais avançado que seja, o ChatGPT está muito longe de ser o bicho-papão que vai substituir os profissionais da área jurídica ou qualquer outro profissional, em breve. O ChatGPT ainda é uma criança em AI e, mesmo que cresça, nunca será um ser humano. Em outros artigos demonstraremos:

Dependendo do dia e horário ele oferta respostas diferentes para as mesmas perguntas.

Ele cria petições e requerimentos imperfeitos que precisam de correção.

A ferramenta ainda está em evolução.

Caso precise de maiores informações sobre o uso de prompts, faça contato. 

__________

 

Até o papa. A imagem do papa Francisco com um casacão, inspirado na moda do hip hop, foi criada por usuário do fórum Reddit, que usou inteligência artificial. Controle - Ao ganhar domínio da linguagem, a IA está se apoderando da chave-mestra da civilização. Evolução - Até recentemente a IA não passava de um projeto distante, algo que pertencia mais à ficção científica.

A inteligência artificial (IA) poderia ajudar a derrotar o câncer, mas também devorar toda a cultura humana.

Em 2022, mais de 700 dos principais acadêmicos e pesquisadores por trás das maiores empresas de inteligência artificial foram questionados em uma sondagem a respeito do risco futuro da IA. Metade dos entrevistados declarou que existe uma chance de 10% ou maior de extinção da humanidade (ou alguma insegurança similarmente permanente e grave) provocada por sistemas de IA. As empresas de tecnologia que constroem os maiores modelos de linguagem de hoje estão tomadas por uma corrida para colocar toda a humanidade nesse mesmo barco.

Empresas farmacêuticas não podem vender novos medicamentos para as pessoas sem antes submeter seus produtos a rigorosos testes de segurança. Laboratórios de biotecnologia não podem lançar novos vírus à esfera pública para impressionar acionistas com sua feitiçaria. Igualmente, sistemas de inteligência artificial com o poder do GPT-4 e além não deveriam ser emaranhados às vidas de bilhões de pessoas a um ritmo mais veloz do que as culturas sejam capazes de absorvê-los com segurança. A corrida pelo domínio do mercado não deveria determinar a velocidade do acionamento da tecnologia mais consequencial da humanidade.  Nós devemos nos mover a qualquer velocidade que nos possibilite fazer isso direito.

FICÇÃO. O espectro da inteligência artificial assombra a humanidade desde meados do século 20, mas até recentemente não passava de um projeto distante, algo que pertencia mais à ficção científica do que ao debate científico e político sério. É difícil para as nossas mentes humanas captar e compreender as novas capacidades do GPT-4 e outras ferramentas similares, e é ainda mais difícil dar conta da velocidade exponencial na qual essas ferramentas estão desenvolvendo capacidades mais avançadas e poderosas. Mas a maioria das capacidades principais se resume a uma coisa: manipular e gerar linguagem, seja com palavras, sons ou imagens.

LINGUAGEM. No princípio era o verbo. A linguagem é o sistema operacional da cultura humana. Da linguagem emergem o mito e o direito, os deuses e o dinheiro, a arte e a ciência, as amizades, as nações e os códigos computacionais. O novo domínio da linguagem por parte da inteligência artificial significa que ela é capaz agora de invadir e manipular o sistema operacional da civilização. Ao ganhar domínio da linguagem, a IA está se apoderando da chave-mestra da civilização, de cofres de bancos a santos sepulcros.

O que significaria para os humanos viver em um mundo no qual uma grande porcentagem das narrativas, melodias, imagens, leis, políticas e ferramentas é moldada por inteligência não humana, que sabe como explorar com eficiência sobre-humana fraquezas, vieses e vícios da mente humana – ao mesmo tempo que sabe formar relações íntimas com os seres humanos? Em jogos como xadrez, nenhum humano chega perto de superar um computador. O que acontece quando o mesmo suceder na arte, na política ou na religião?

A inteligência artificial poderia devorar rapidamente toda a cultura humana, tudo o que produzimos ao longo de milhares de anos, digerir e começar a jorrar uma torrente de novos artefatos culturais. Não apenas trabalhos escolares, mas também discursos políticos, manifestos ideológicos e livros sagrados para novos cultos. Até 2028, a corrida presidencial dos Estados Unidos poderia não ser mais protagonizada por humanos.

Os humanos com frequência não possuem acesso direto à realidade. Nós somos encapsulados pela cultura, experimentando a realidade através de um prisma cultural. Nossas visões políticas são forjadas por reportagens de jornalistas e anedotas de amigos. Nossas preferências sexuais são ajustadas em função de arte e religião. Essa cápsula cultural tem sido, até aqui, tecida por outros humanos. Como será experimentar a realidade através de um prisma produzido por inteligência não humana?

SONHOS. Por milhares de anos, nós, humanos, vivemos dentro de sonhos de outros humanos. Nós adoramos deuses, perseguimos ideais de beleza e dedicamos nossas vidas a causas que se originaram na imaginação de algum profeta, poeta ou político. Logo nós também viveremos dentro de alucinações de inteligência que não é humana.

CONTROLE. A franquia O Exterminador do Futuro retratou robôs correndo nas ruas e atirando em pessoas. Matrix assumiu que, para impor controle total sobre a sociedade humana, a inteligência artificial teria primeiro de controlar fisicamente nossos cérebros e conectá-los a uma rede computacional. Mas simplesmente obtendo domínio da linguagem a IA teria tudo o que precisa para nos envolver em um mundo de ilusões à Matrix, sem atirar em ninguém nem implantar nenhum chip em nossos cérebros. Se tiros forem necessários, a IA fará humanos puxarem o gatilho simplesmente contando-nos a história certa.

O espectro de ficar preso em um mundo de ilusões assombra a humanidade há muito mais tempo do que o espectro da inteligência artificial. Nós logo estaremos finalmente diante do gênio maligno de Descartes, da caverna de Platão e da maya budista. Uma cortina de ilusões poderia desprender-se sobre toda a humanidade, e nós poderemos jamais ser capazes de rasgá-la – ou até mesmo perceber sua presença.

As redes sociais foram o primeiro contato entre a inteligência artificial e a humanidade, e a humanidade perdeu. O primeiro contato nos deixa um sabor amargo do que está por vir. Nas redes sociais, IA primitiva foi usada não para criar conteúdo, mas para curar conteúdo gerado pelos usuários. A IA por trás dos nossos feeds de notícias ainda está escolhendo quais palavras, sons e imagens chegam às nossas retinas e tímpanos com base na seleção das postagens que obtêm mais viralidade, mais reações e mais engajamento.

Ainda que muito primitiva, a inteligência artificial por trás das redes sociais foi suficiente para criar uma cortina de ilusões que elevou a polarização social, minou nossa saúde mental e desgastou a democracia.

ELEIÇÕES. Milhões de pessoas confundiram essas ilusões com a realidade. Os EUA têm a melhor tecnologia da informação na história, mas os cidadãos americanos não.

Referências

https://meiobit.com/460863/microsoft-365-copilot-eles-vao-dominar-o-mundo-de-novo/

https://en.wikipedia.org/wiki/Wikipedia:Large_language_models  

https://research.google/teams/brain

https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html

https://www.seagate.com/files/www-content/our-story/trends/files/Seagate-WP-DataAge2025-March-2017.pdf

https://openai.com/research/gpt-4

https://www.insper.edu.br/noticias/com-o-chatgpt-a-engenharia-de-prompt-desponta-como-uma-nova-profissao/

https://openai.com/blog/chatgpt-plugins   

1 https://www.cnnbrasil.com.br/tecnologia/chat-gpt-4-inteligencia-artificial-mente-para-completar-tarefa-e-gera-preocupacao/

 

* Yuval Harari, Tristan Harris e Aza Raskin / NYT · 29 mar 2023 Jornal OESP.

Veja mais no portal
cadastre-se, comente, saiba mais

Colunistas

Coriolano Aurélio de Almeida Camargo Santos é advogado e Presidente da Digital Law Academy. Ph.D., ocupa o cargo de Conselheiro Estadual da Ordem dos Advogados do Brasil, Seção São Paulo (OAB/SP), com mandatos entre 2013-2018 e 2022-2024. É membro da Comissão Nacional de Inteligência Artificial do Conselho Federal da OAB. Foi convidado pela Mesa do Congresso Nacional para criar e coordenar a comissão de Juristas que promoveu a audiência pública sobre a criação da Autoridade Nacional de Proteção de Dados, realizada em 24 de maio de 2019. Possui destacada carreira acadêmica, tendo atuado como professor convidado da Università Sapienza (Roma), IPBEJA (Portugal), Granada, Navarra e Universidade Complutense de Madrid (Espanha). Foi convidado pelo Supremo Tribunal Federal em duas ocasiões para discutir temas ligados ao Direito e à Tecnologia. Também atua como professor e coordenador do programa de Lei Geral de Proteção de Dados (LGPD) da Escola Superior de Advocacia Nacional do Conselho Federal é o órgão máximo na estrutura da Ordem dos Advogados do Brasil (CFOAB). Foi fundador e presidente da Comissão de Direito Digital e Compliance da OAB/SP (2005-2018). Atuou como Juiz do Tribunal de Impostos e Taxas de São Paulo (2005-2021) e fundou a Comissão do Contencioso Administrativo Tributário da OAB/SP em 2014. Na área de arbitragem, é membro da Câmara Empresarial de Arbitragem da FECOMERCIO, OAB/SP e da Câmara Arbitral Internacional de Paris. Foi membro do Conselho Jurídico da FIESP (2011-2020) e diretor do Departamento Jurídico da mesma entidade (2015-2022). Atualmente desempenha o papel de Diretor Jurídico do DEJUR do CIESP. Foi coordenador do Grupo de Estudos de Direito Digital da FIESP (2015/2020). Foi convidado e atuou como pesquisador junto ao Conselho Nacional de Justiça (CNJ), em 2010, para tratar da segurança física e digital de processos findos. Além disso, ocupou o cargo de Diretor Titular do Centro do Comércio da FECOMERCIO (2011-2017) e foi conselheiro do Conselho de Tecnologia da Informação e Comunicação da FECOMERCIO (2006-2010). Desde 2007, é membro do Conselho Superior de Direito da FecomercioSP. Atua como professor de pós-graduação da Universidade Presbiteriana Mackenzie desde 2007, nos cursos de Direito e Tecnologia, tendo lecionado no curso de Direito Digital da Fundação Getúlio Vargas, IMPACTA Tecnologia e no MBA em Direito Eletrônico da EPD. Ainda coordenou e fundou o Programa de Pós-Graduação em Direito Digital e Compliance do Ibmec/Damásio. É Mestre em Direito na Sociedade da Informação pela FMU (2007) e Doutor em Direito pela FADISP (2014). Lecionou na Escola de Magistrados da Justiça Federal da 3ª Região, Academia Nacional de Polícia Federal, Governo do Estado de São Paulo e Congresso Nacional, em eventos em parceria com o Departamento de Justiça dos Estados Unidos, INTERPOL e Conselho da Europa. Como parte de sua atuação internacional, é membro da International High Technology Crime Investigation Association (HTCIA) e integrou o Conselho Científico de Conferências de âmbito mundial (ICCyber), com o apoio e suporte da Diretoria Técnico-Científica do Departamento de Polícia Federal, Federal Bureau of Investigation (FBI/USA), Australian Federal Police (AFP) e Guarda Civil da Espanha. Além disso, foi professor convidado em instituições e empresas de grande porte, como Empresa Brasileira de Aeronáutica (EMBRAER), Banco Santander e Microsoft, bem como palestrou em eventos como Fenalaw/FGV.GRC-Meeting, entre outros. Foi professor colaborador da AMCHAM e SUCESU. Em sua atuação junto ao Conselho Nacional de Política Fazendária (CONFAZ), apresentou uma coletânea de pareceres colaborativos à ação governamental, alcançando resultados significativos com a publicação de Convênios e Atos COTEPE voltados para a segurança e integração nacional do sistema tributário e tecnológico. Também é autor do primeiro Internet-Book da OAB/SP, que aborda temas de tributação, direito eletrônico e sociedade da informação, e é colunista em Direito Digital, Inovação e Proteção de Dados do Portal Migalhas, entre outros. Em sua atuação prática, destaca-se nas áreas do Direito Digital, Inovação, Proteção de Dados, Tributário e Empresarial, com experiência jurídica desde 1988.

Leila Chevtchuk, eleita por aclamação pelos ministros do TST integrou o Conselho Consultivo da Escola Nacional de Formação e Aperfeiçoamento de Magistrados do Trabalho – ENAMAT. Em 2019 realizou visita técnico científica a INTERPOL em Lyon na França e EUROPOL em 2020 em Haia na Holanda. Desembargadora, desde 2010, foi Diretora da Escola Judicial do Tribunal Regional do Trabalho da 2ª região. Pela USP é especialista em transtornos mentais relacionados ao trabalho e em psicologia da saúde ocupacional. Formada em Direito pela USP. Pós-graduada pela Universidade de Lisboa, na área de Direito do Trabalho. Mestre em Relações do Trabalho pela PUC e doutorado na Universidade Autôno de Lisboa.