Machine Learning e os Tipos de Aprendizagem

Vinicius Ferrasso da Silva[1]

 Ainda em 1950, referindo à operação de algoritmos, Alan Turing, no seminal Computing Machinery andIntelligence, propunha que, no lugar de se imitar o cérebro de um adulto, programando todas as operações a serem realizadas, seria mais produtivo adotar uma estratégia diversa, qual seja: a de simular o cérebro de uma criança com capacidade randômica de aprendizado[2]. Nascia aí a ideia motriz dos algoritmos não programados, aqueles que usam a técnica que ficou conhecida como aprendizagem de máquinas, ou machine learning.

A machine learning é considerada uma das subáreas da Inteligência Artificial que se apresenta como um fenômeno crescente nas últimas décadas; por isso, esta tese se debruça em investigar suas consequências no Direito. A machine learning são algoritmos matemáticos, estatísticos e computacionais que são capazes de realizar um processo de inferência por meio de aprendizado baseado em exemplos. Em outras palavras, a machine learning seria capaz de trabalhar com dados baseados na jurisprudência do Direito. Contudo, sem deixar de considerar os vieses (error back propagation) e a ausência de fundamentação da decisão/seleção algorítmica, como dito, um problema incontornável para o Direito.

O machine learning tem a capacidade de trabalhar com padrões complexos. Em determinadas ocasiões, os seres humanos tomam decisões tão complexas que é impossível expor o racional por de traz dessas decisões, essas decisões oriundas dos seres humanos carregam o denominado viesse cognitivo. Com efeito, quando há condições de possibilidades de extração desses dados, isso pode ser utilizado como código-fonte para que o sistema decida conforme os padrões decisórios anteriores.

Desse modo, aqui cabe um destaque que guarda relação à pergunta motor desta tese, posto que o limite de aplicabilidade dos sistemas de IA reside no fato que a decisão tomada é explicada por meio da regra decisória, isto é, o código-fonte explica a regra matematicamente, porém não consegue dispor da fundamentação (accountability) adequadamente construída e válida para o Direito, à luz do artigo 93, Inc. IX da CF/88.

Há duas décadas, acreditava-se que os resultados alcançados pelos algoritmos seriam viáveis apenas nas mentes de autores de ficção científica. Atualmente, a machine learning está presente em nosso dia a dia, seja na atividade privada, seja nos diversos órgãos públicos que regem o Estado. Sua utilização ultrapassa nossa imaginação, com performance avançada em empresas de todos os segmentos de mercado. Posto seu caráter interdisciplinar, auxilia no planejamento, na produção, na venda e no relacionamento das empresas com seus clientes. Basta imaginar o atendente virtual da agência bancária, ou do call center da televisão por assinatura e telefonia celular, entre outros tantos exemplos, que, respondendo a um problema específico do cliente, buscam, nos algoritmos de aprendizado já construídos, as respostas adequadas ao problema do cliente.

Mas tudo isso só é possível com uma base de dados factível pura e que retrate adequadamente a atividade a qual a machine learning se destina,[3] sem vieses cognitivos de origem, e destinados as atividades repetitivas. Atualmente, pode-se afirmar que se vive na denominado big data,[4] isto é, o tempo de um volume de dados e de informações gigantescas, que, inclusive, tornou-se um mercado que negócios significativos consubstanciados em transações de dados de pessoas, empresas e governos mundo afora.[5]

Indiscutivelmente, a fonte de dados é o caminho, o meio, a fonte, a origem da construção de uma inteligência artificial integra, uma vez que o input de dados fornecidos é a base de construção dos algoritmos, que, ao final, vai resultar na IA desejada. Sempre é oportuno lembrar que algoritmos não surgem a partir de uma máquina autônoma, mas do input inicial para seu funcionamento. Por isso, pode ser afirmado que o alicerce dos algoritmos é o big data. Essa explosão de dados à disposição na rede mundial vem gradativamente se transformando em informações valiosas para empresas que atuam nesse novo setor tecnológico, que, inclusive, estão servindo como diretrizes e critérios para o processo decisório algorítmico, o que deve ser observado amiúde, visto as possibilidades de vieses.[6]

Convém destacar que, quando se fala em aprendizado de máquinas, refere-se à mão humana que constrói a máquina, e não de um sistema de software autônomo. Por isso, quando se fala em aprendizado, está se referindo exatamente naquele modo que o professor ensina o aluno em sala de aula. De nada adianta o aprendizado de máquinas sob a égide de algoritmos criados pretensamente espúrios ou até mesmo neutros, pois a base de dados – o DNA algorítmico – poderá já nascer prejudicado.[7] Portanto, essa particularidade permite afirmar que mais importante que o resultado algoritmo é a base de dados que estrutura o dataset.

O aprendizado de máquinas exsurge da possibilidade de tratamento de dados em massa inputs em busca de resultados determinados outputs, independentemente de qualquer mediação de um ser humano. No particular, o sistema alcança resultados por meio de um processo dedutivo, aproveitando-se de mecanismos estatísticos que são determinados com base em correlações realizadas pela inteligência artificial. Em regra, esses resultados são alcançados sem a possibilidade de se auferir os padrões usados pela inteligência artificial para a análise de dados selecionados e do modo de trabalho que levaram a esses outputs. Novamente, destaca-se aqui, o limite de aplicabilidade dos sistemas de IA no Direito, uma vez que atividades do direito que necessitam de fundamentação (accountability), assim como é o caso da aplicação do sistema de IA na seleção das questões de repercussão geral no STF, padecem de um racional capaz de fundamentar a seleção/decisão dos sistemas de IA.

Contudo, ainda deve ser destacada a importância de métodos automatizados de manipulação e análise, que a machine learning tem condições de possibilidades oferecer. A machine learning é um programa de aprendizado por máquinas que trabalha uma gama exponencial de dados em busca de detectar padrões de modo automatizado e de oferecer respostas ótimas de previsão do futuro ou de decisão; ponto que interessa sobremaneira a área do Direito, com o fito de abranger as atividades repetitivas e estressante. Desse modo, permite que sejam desenvolvidos sistemas de Inteligência Artificial capazes de oferecer racionalizações importantes e específicas no Direito. Trata-se do principal pilar da nova era da indústria moderna, que abarca as inúmeras áreas do saber.

A machine learning pode ser definida como o ramo da IA que estuda maneiras de fazer com que as máquinas melhorem a sua performance com base na experiência. Observa-se, desde sempre, que a machine learning não é um ramo novo que, porventura, venha a substituir a IA e, sim, destaca-se pelo seu papel central no interior da IA.[8]

Do mesmo modo, a machine learning pode ser caracterizada pelo ramo da Ciência da Computação, que envolve a criação de algoritmos que podem aprender com os dados.  E é nesse cenário que exsurgem os algoritmos de aprendizado de máquina: esses programas de computador se programam essencialmente olhando informações pretéritas. Logo, esse ramo da IA oferece as condições de possibilidades para que a máquina aprenda sozinha; quer dizer, um algoritmo de machine learning possibilita a identificação de padrões nos dados adquiridos e a construção de modelos que explicam o mundo e preveja coisas sem regras e modelos explicitamente pré-programados.[9] Logo, o cenário de aprendizado pode ser aplicado às redes neurais de pelo menos duas formas distintas.

Em determinadas redes baseadas em osciladores, o aprendizado não é apresentado explicitamente na forma de um algoritmo, mas encontra-se inserido no modelo do neurônio. Normalmente, o processo de sincronização dos pulsos que irá estruturar a rede neural[10] deriva da associação de uma coleção de neurônios. Nesse cenário, as redes neurais pulsadas com algoritmos explícitos de aprendizado se mostram de três modos distintos como o aprendizado é construído: (i) aprendizado supervisionado; (ii) aprendizado não supervisionado; e (iii) aprendizado por reforço.[11]

O aprendizado permite inserir um programa de computador que dinamiza a performance em alguma tarefa por meio de dados anteriores. Nesse caso, o programa de computador aprende por intermédio da experiência (E) com respeito a tarefas divididas em classes (T) e dimensionada por meio da performance (P), caso o valor da performance (P) nas tarefas (T) resulte no melhoramento da experiência (E).[12]

Os exemplos que podem ser apresentados na forma de um problema de aprendizado supervisionado são aqueles de ordem de classificação e de reconhecimento de padrões, de previsão de séries temporais, de identificação de sistemas, de controle de processos e de projeto de filtros em processamento de sinais.

O aprendizado supervisionado envolve o fornecimento de dados de treinamento cuidadosamente estruturados que foram categorizados ou rotulados para um algoritmo de aprendizado. Destaca-se que um sistema de aprendizado profundo[13] pode reconhecer uma determinada espécie de baleias em fotografias, alimentando-o com milhares (ou até milhões) de imagens, contendo a baleia selecionada. Cada uma delas seria rotulado como “baleia”; porém, também seria necessário disponibilizar muitas imagens sem uma baleia, rotulado como “não baleia“.

Depois que o sistema for treinado, poder-se-á inserir fotografias inteiramente novas, e o sistema informará “baleia” ou “não baleia”. Isso poderá ser capaz de realizá-lo com um elevado nível de acurácia, identificando inúmeros exemplares de baleias antes não localizadas por meio da operação de seleção de espécies realizadas antes por seres humanos. O aprendizado supervisionado é a técnica mais usada nos sistemas atuais de IA representando algo próximo de 95% das aplicações práticas.

A exemplo, o aprendizado supervisionado capacita a tradução de idiomas. No caso específico da tradução de idiomas, o sistema é treinado com milhões de documentos previamente traduzidos em dois idiomas diferentes. A partir dessa preparação de dados, inicia-se a tradução automatizada. Um sistema de radiologia de IA pode ser treinado com milhões de imagens médicas rotuladas como “câncer” e “sem câncer”, com similitude ao exemplo da seleção de uma determinada espécie de baleia. Nota-se que a característica comum de um problema de aprendizado supervisionado é a preparação de uma gama muito grande de dados rotulados. Isso explica por que as empresas que controlam grandes quantidades de dados, como Google, Amazon e Facebook, têm uma posição tão dominante na tecnologia de aprendizado profundo.

A formalização do problema de aprendizado supervisionado pode se dar da seguinte maneira: seja (k) a resposta desejada para o neurônio (j) no instante (k); seja (k) a resposta observada do neurônio (j) no instante (k), obtida por meio de um estímulo x(k) presente na entrada da rede neural; x(k) e (k) constituem um exemplo de par estímulo-resposta apresentado ao neurônio no instante (k), possivelmente extraídos de um ambiente ruidoso, cujas distribuições de probabilidade são desconhecidas; (k) = (k) –  (k) é o sinal de erro observado na saída do neurônio (j)  no instante (k).

Destaca-se que, em ambiente ruidoso, (k) é uma variável aleatória e, em todos os neurônios, o processo de aprendizado supervisionado tem por objetivo corrigir esse erro observado. Para tanto, busca-se minimizar um critério como função objetivo baseado em  (k), j=1,20,…,p, em que p é o número de neurônios da rede neural, de maneira que, para (k) ser suficientemente alto,  (k), j=1,2,…,p, é preciso que estes estejam próximos de  (k), j=1,2,…,p, no sentido estatístico, e um critério muito utilizado é o de erro quadrático médio:

 

Figura 3 –Função objetivo

Fonte: Zubem (2020)

Nota-se que o conceito que está implícito em toda esta análise é a hipótese de estacionariedade dos processos aleatórios presentes. Além disso, para minimizar J, é necessário conhecer as características estatísticas do sistema. Já uma aproximação para o critério é utilizar o valor instantâneo do erro quadrático médio:

 

Figura 4 – Valor instantâneo do erro quadrático médio

Fonte: Zubem (2020)

Vale destacar que a minimização de J(k), na equação acima referenciada, está realizada apenas em relação aos pesos sinápticos da rede neural,[14] ou seja, baseada nos valores atribuídos às conexões neurais. O objetivo central é construir, por meio dessas metodologias estatísticas, sistemas de inteligência que processem e compreendam a escrita e a fala como os seres humanos o fariam, sem deixar de captar o contexto, os sentimentos, os resumos textuais, a categorização de conteúdo, dentre outros fatores de interesse. Convém destacar que IA experimentará os sentimentos integrantes da construção do sistema. Isso não se deve confundir com o experimento de emoções[15].

Os exemplos de aprendizado supervisionado referenciados guardam proximidade ao modo pelo qual o Robô Victor vem sendo ensinado, uma vez que o robô jurídico conta com 952 mil documentos oriundos de cerca de 45 mil processos[16]. Eles, do mesmo modo, capacitam o Victor para tomar decisões a respeito do juízo de admissibilidade dos recursos extraordinários no âmbito do Supremo Tribunal Federal.

Nesse cenário, num aprendizado supervisionado, cada observação x, x=1, 2, …, n do conjunto de dados dispõe de um vetor de mensurações para variáveis preditoras (input ou variáveis independentes), assim como de mensuração correspondente à resposta de interesse yⱼ, (output, desfecho ou variável dependente). Um modelo que relacione a resposta aos preditores é ajustado com o objetivo de predizer essa resposta em observações futuras, para as quais estão disponíveis apenas dados referentes aos preditores.[17] As três variáveis referenciadas, experiência (E), tarefas (T) e performance (P) são imprescindíveis para contornar adequadamente o problema de aprendizado-alvo.

Doutra banda, a aprendizagem não supervisionada não foi tão disseminada nas últimas décadas devido a sua complexidade; é um modelo de aprendizagem específico para um neurônio de modelo de resposta pulsada (spiking response model), implementado para oferecer uma função de base radial[18]. Depois de alguns anos, o modelo não supervisionado foi construído para as redes neurais e,[19] recentemente, sofreu avanços significativos que ampliaram a sua capacidade, com possibilidade de manipulação de dados reais.

O aprendizado não supervisionado tem por objetivo fazer com que cada neurônio da rede memorize o centro de um grupo, ou, em outros termos, faça com que dispare o neurônio da camada de saída, que o centro mais se aproxime do padrão dos pulsos fornecidos pela camada de entrada.[20] Nesse processo, os pesos sinápticos são distribuídos aleatoriamente[21]. Posteriormente, há a apresentação de um vetor de entrada à rede neural. Aquele neurônio da camada de saída que disparar primeiro, no mesmo sentido de um espermatozoide vencedor que consegue penetrar no óvulo, será o neurônio vencedor do processo da rede neural artificial.

O cenário descrito acima pode ser descrito por meio de uma unidade de processamento, em que os sinais são apresentados à entrada; cada sinal é multiplicado por um número ou peso, que indica a sua influência na saída da unidade. Depois, é feita a soma ponderada dos sinais que produz um nível de atividade. Se esse nível de atividade exceder um certo limite threshold, a unidade produz uma determinada resposta de saída.[22]

 

Figura 5 – Esquema de unidade McCullock – Pitts

 

Fonte: Redes Neurais Artificiais… (2020)

 

No modelo acima, há os sinais da entrada no neurônio representados pelo vetor x = [x1, x2, x3, …, xN], podendo corresponder aos pixels de uma imagem, por exemplo. Ao chegarem ao neurônio, são multiplicados pelos respectivos pesos sinápticos, que são os elementos do vetor = [w1, w2, w3, …, wN], gerando o valor zcomumente denominado potencial de ativação, de acordo com a expressão:

Figura 6 – Pesos sinápticos

Fonte: Redes Neurais Artificiais…  (2020)

Desse modo, somente os pesos sinápticos do neurónio vencedor são atualizados utilizando uma função de aprendizado hebbiana. Se um o neurônio recebeu um pulso de uma sinapse imediatamente antes de disparar, então, o peso relativo a essa sinapse deve ser incrementado. Sinapses que receberam estímulos muito antes ou muito depois do disparo de neurônios não tiveram contribuição em seu disparo e, portanto, devem ser decrementadas.

O aprendizado não supervisionado comumente aparece como a descoberta do conhecimento (knowledge discovery). Nota-se que, diferentemente do aprendizado supervisado em que os padrões objetivados são previamente rotulados, no aprendizado não supervisionado, não se sabe que tipo de padrões são objetivados e onde os pesos sinápticos são distribuídos aleatoriamente[23]. Isso resulta afirmar que ele não se dispõe do controle de erros, aproximando o aprendizado não supervisionado com a forma mais próxima dos seres humanos.

Por esse motivo, ainda que o aprendizado supervisionado seja a técnica mais usada nos sistemas atuais de IA, representando algo próximo de 95% das aplicações práticas, alguns experts afirmam a maior abrangência do aprendizado não supervisionado, uma vez que dispensa a anotação de dados subscritos por uma mão de obra especializada, o dados anotados muitas vezes não são suficientes para modelagem dos parâmetros.[24]

Como dito, as redes neurais pulsadas com algoritmos explícitos de aprendizado se mostram também na forma de aprendizado por reforço,[25] que significa essencialmente aprender por meio da prática ou da tentativa e do erro, em vez de treinar um algoritmo, fornecendo o resultado correto e rotulado. O Aprendizado por Reforço (RL, do Inglês, Reinforcement Learning) é uma técnica de aprendizado de máquina bastante usada em controle de processos industriais, capaz de implementar o mecanismo de personalização dos sistemas tutores inteligentes (STI) ao aprendiz[26]. Nela, o aprendizado se dedica de como um agente autônomo, que percebe e age em seu ambiente, pode aprender a escolher ações ótimas para atingir seus objetivos.[27]

No aprendizado por reforço, um agente aprende por sucessivas interações com o seu ambiente e escolhe as ações que proporcionam os melhores resultados/ganhos. O ambiente apresenta, a cada interação, um novo estado (situação) e um valor numérico chamado reforço (reward) para avaliar a ação.

O aprendizado por reforço é comumente utilizado para determinar ações ótimas em problemas de decisão sequenciais. Em geral, problemas de AR são modelados como Processos de Decisão de Markov (Markov decision processes ou MDP). Métodos de aprendizado por reforço podem ser independentes de modelo ou baseados em modelos. Estes últimos assumem que a função de transição T e a função de recompensa R são disponíveis. Métodos independentes de modelo, por outro lado, isentam o agente de conhecer quaisquer informações a respeito da dinâmica do ambiente. O Q-Learning é o algoritmo de AR, independentemente de modelo mais simples que atualmente está em uso. Ele opera por meio da constante melhoria de estimativas de valores estado-ação ou de valores Q.

O aprendizado por reforço explora uma abordagem computacional por interação. O problema associado às técnicas por reforço tradicionais é a necessidade de que as ações e estados sejam discretos, o que limita seu uso em muitas aplicações reais, ou que haja uma discretização prévia das informações sensoriais.

Dito isso, observa-se que o aprendizado por reforço se difere do supervisionado. Tal como referenciado inicialmente, o aprendizado supervisionado suporta a maior gama de pesquisas. Inicia-se a partir de uma amostra de dados anotados/rotulados por um analista/cientista de dados com pleno conhecimento na área; por isso, o caráter de interdisciplinaridade da inteligência artificial. No modelo supervisionado, cada amostra descreve um fato junto da especificação do rotulado daquela ação correta que se pretende que o sistema deve observar. Nessa hipótese, o sistema irá extrapolar suas reações para que consiga agir corretamente em situações que não estejam sujeitas ao conjunto de treinamento. Ocorre que esse tipo de aprendizado sozinho não se mostra eficiente para aprendizagem por interação. Nota-se que, nos problemas interativos, não há como antever comportamentos desejados, que são aqueles corretos e representativos de uma determinada situação. Muitos experts asseguram que o ambiente interativo é o cenário que se projeta para o aprendizado manifestar suas características de modo mais amplo e proveitoso, literalmente interagindo com o falante e aprendendo com ele.[28]

Deve ser destacado que o aprendizado por reforço, embora prima facie se assemelhe ao aprendizado não supervisionado, difere-se desse último aprendizado, pois busca encontrar estruturas escondidas em conjuntos de dados não rotulados. Embora os aprendizados supervisionados e não supervisionados possam parecer capazes de abarcarem grande parte das situações desejáveis, a técnica demostra que ambos os aprendizados não são capazes para tanto.

O aprendizado não supervisionado, que ensejaria uma eventual similitude por não contar com comportamentos esperados, difere-se que o aprendizado por reforço objetive maximizar um sinal de bom desempenho, bem como não encontrar uma estrutura oculta. Tal especificidade não dá conta do problema de maximizar um sinal de recompensa, o que capacita o aprendizado por reforço um terceiro modo de aprendizado de máquina.

Dito isso, os dados constroem os algoritmos, que estruturam o aprendizado de máquinas. Por conseguinte, a sobreposição dessas estruturas de aprendizagem, umas sobre as outros e de modo profundo, posto que essas camadas armazenam uma imensa gama de informações, constroem a aprendizagem profunda ou deep learning. Ela emprega algoritmos no processamento de dados, de modo a imitar o processamento realizado pelo cérebro humano, que visitar-se-á no próximo subcapítulo.

Neste subcapítulo, buscou-se demonstrar tecnicamente os modelos de aprendizagem de máquinas. Contudo, alerta-se que a implementação dessas ferramentas deve ser cuidadosa e permeada por um amplo debate sobre as melhores formas de se realizar o machine learning, com o objetivo de reduzir o enviesamento das máquinas. Também, torna-se necessária a implementação de mecanismos para assegurar a transparência algorítmica, essencial para que se possa compreender o processo de tomada de decisões dos sistemas de IA, algo que nessa quadra da história da inteligência artificial é inacessível. Isso limita a aplicabilidade dos sistemas de IA no Direito naquilo que tange à decisão ou a qualquer ato processual que demanda fundamentação à luz do artigo 93, Inc. IX da CF/88.

 


[1] – Graduado em Ciências Econômicas (UNISINOS) Mestrado em Ciências Econômicas (UFRGS) Graduado em Ciências Jurídicas (UNISINOS) Mestrado em Direito Público (UNISINOS) Especialista em Direito Tributário (UNISINOS) Especialista em Direito Penal (UNIASSELVI) Advogado Empresarial OAB/RS 88.618. Doutor em Direito Público (UNISINOS), Pós-doutorando em Direito Público (UNISINOS).

[2] TURING, Alan M. Computing Machinery and Intelligence. Mind, New Series, v. 59, n. 236, p. 433-460, out. 1950. Disponível em: https://phil415.pbworks.com/f/TuringComputing.pdf. Acesso em: 20 ago. 2019.

[3] O aprendizado de máquina pode confirmar padrões discriminatórios – se eles forem encontrados no banco de dados, então, por conseguinte, um sistema de classificação exato irá reproduzi-los. Deste modo, decisões enviesadas são apresentadas como resultado de um “algoritmo objetivo”. GOODMAN, B.; FLAXMAN, S. R. (2017). European Union regulations on algorithmic decision-making and a “right to explanation”. AI Magazine, 38(3), p. 50-57

[4]  MURPHY, Kevin P. Machine Learning: a probabilistic perspective. Cambridge/Londres: The MIT press, 2012. Disponível em: http://www.cs.ubc.ca/~murphyk/MLbook/pml-intro-22may12.pdf. Acesso em: 03 jan. 2020.

[5] Ver Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709.htm. Acesso em: 04 jan. 2019.

[6] FRAZÃO, Ana. Algoritmos e inteligência artificial. In: JOTA. Brasília, DF: 15 de maio de 2018. Disponível em:

http://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/algoritmos-e-inteligencia-artificial-15052018. Acesso em: 04 jan. 2019.

[7] Em fevereiro de 2017, a Microsoft lançou Tay, sua inteligência artificial criada para interagir com os internautas de maneira totalmente autônomo. Somente algumas horas após sua estreia no Twittter, Tay emitiu declarações racistas, antissemitas, sexistas, conspiratórias e revisionista. Aqui, quem seria responsável pelo erro inumano de Tay (algoritmo de inteligência artificial): o designer, o usuário, o proprietário ou o chatbot? SOULEZ, Marie. Questions juridiques au sujet de l´intelligence artificielle. Enjeux numériques, n. 1, p. 81-85, mar. 2018. Disponível em: http://www.annales.org/enjeux-numeriques/2018/resumes/mars/15-en-resum-FR-AN-mars-2018.html#-15FR. Acesso em: 04 jan. 2020. p. 83.

[8] RUSSEL, Stuart. Q&A: The Future of Artificial Intelligence. In: University of Berkeley, 2016. Disponível em: https://people.eecs.berkeley.edu/~russell/temp/q-and-a.html. Acesso: 02 abr. 2020.

[9] MAINI, Vishil; SABRI, Samer. Machine Learning for Humann. Disponível em:

https://medium.com/machine-learning-for-humans/why-machine-learning-matters-6164faf1df12. Acesso em: 02/04/2020.

[10] WANG, R. A hybrid learning network for shift-invariant recognition. Neural networks, v. 14, n. 8, p. 1061-1073, out. 2001. Disponível em:

https://www.researchgate.net/publication/11670753_A_hybrid_learning_network_for_shift-invariant_recognition. Acesso em: 14 jun. 2019.

[11] Com apenas um neurônio não se pode fazer muita coisa, mas podemos combiná-los em uma estrutura em camadas, cada uma com número diferente de neurônios, formando uma rede neural denominada Perceptron Multicamadas (“Multi Layer Perceptron — MLP). O vetor de valores de entrada passa pela camada inicial, cujos valores de saída são ligados às entradas da camada seguinte, e assim por diante, até a rede fornecer como resultado os valores de saída da última camada. Pode-se arranjar a rede em várias camadas, tornando-a profunda e capaz de aprender relações cada vez mais complexas. A ideia do algoritmo backpropagation é, com base no cálculo do erro ocorrido na camada de saída da rede neural, recalcular o valor dos pesos do vetor da camada última camada de neurônios e assim proceder para as camadas anteriores, de trás para a frente, ou seja, atualizar todos os pesos w das camadas a partir da última até atingir a camada de entrada da rede, para isso realizando a retropropagação o erro obtido pela rede. Em outras palavras, calcula-se o erro entre o que a rede achou que era e o que de fato era (era um gato e ela achou que era um cachorro — temos aí um erro!), então recalculamos o valor de todos os pesos, começando da última camada e indo até a primeira, sempre tendo em vista diminuir esse erro. JI, Shuiwang at el. 3D Convolutional Neural Networks for Human Action Recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 35, n. 1, p. 221–231, jan. 2013. Disponível em:

http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.442.8617&rep=rep1&type=pdf. Acesso em: 15 ago. 2019.

[12] A exemplo: um programa de computador que aprende a jogar damas melhora sua -performance conforme a medida de sua habilidade de vencer na classe de tarefas de tarefas que dizem respeito ao jogo de damas, por meio da experiência obtida em jogar contra si mesmo. HARTMANN, Fabiano Peixoto; SILVA, Roberta Zumblick M. da. Inteligência artificial e direito. Curitiba: Alteridade Editora, 2019. p. 89.

[13] Existem muitos tipos de algoritmos de aprendizado de máquina, mas o que recentemente se mostrou mais perturbador (e recebe toda a imprensa) é o aprendizado profundo. O aprendizagem profunda é um tipo de aprendizado de máquina que utiliza redes nutricionais artificiais profundas (ou em várias camadas) – software que emula aproximadamente a maneira como os neurônios operam no cérebro. RANA, Ashish. Journey from machine learning to deep learning. In: TOWARDS DATA SCIENCE. [S.I.], 03 de outubro de 2018. Disponível em: https://towardsdatascience.com/journey-from-machine-learning-to-deep-learning-8a807e8f3c1c. Acesso: 18 abr. 2020.

 

[14] Uma rede neural se assemelha ao cérebro em dois pontos: o conhecimento é obtido através de etapas de aprendizagem e pesos sinápticos são usados para armazenar o conhecimento. Uma sinapse é o nome dado à conexão existente entre neurônios. Nas conexões são atribuídos valores, que são chamados de pesos sinápticos. Isso deixa claro que as redes neurais artificiais têm em sua constituição uma série de neurônios artificiais (ou virtuais) que serão conectados entre si, formando uma rede de elementos de processamento. Anderson, J. A. An introduction to neural networks. Cambridge: The MIT Press, 1995. Capítulos 1 e 2.

[15] “En consecuencia, la inteligência artificial hará que la labor de persuasión sea menos árdua, al poderse recopilar com mucha mayor facilidade la información disponible y los argumentos a favor y em contra de las diferentes opciones y, como ya se dijo, no estará condicionada por las emociones os sentimentos, sino que integrará solamente datos objetivos”. FENOLL, Jordi Nieva. Inteligencia Artificial y processo judicial. Madrid: Marcial Pons Ediciones Jurídicas y Sociales, S.A., 2018. p.30.

[16] PROJETO Victor. In: LABORATÓRIO de Inteligência Artificial da Universidade de Brasília. Brasília, DF: 2020. Disponível em: http://gpam.unb.br. Acesso em: 06 abri. 202

[17] A diferença entre o tipo de variável resposta resulta em dois subgrupos de aprendizagem supervisionada, o de regressão, para variáveis quantitativas, e o de classificação, para as do tipo categórica (qualitativa). HASTIE, T.; TIBSHIRANI, R.; FRIEDMAN, J. The Elements of Statistical Learning: Data Mining, Inference and Prediction. Nova Iorque: Springer New York, 2008.

[18] GERSTNER, Wulfram et al. A neuronal learning rule for sub-millisecond temporal coding. Nature, n. 383, p. 76-78, set. 1996. Disponível em: https://www.nature.com/articles/383076a0. Acesso em: 12 abr. 2020.

[19] NATSSCHLÄGER, Thomas; RUF, Berthold. Spatial and temporal pattern analysis via spiking neurons. Network: Computation in Neural Systems, v. 9, n. 3, p. 319-332, dez. 1998. Disponível em: https://www.tandfonline.com/doi/abs/10.1088/0954-898X_9_3_003. Acesso em: 20 fev. 2019.

[20] – Ibid.

[21] Os neurônios se comunicam através de sinapses, a sinapse é a região onde dois neurônios entram em contato e através da qual os impulsos nervosos são transmitidos entre eles. Os impulsos recebidos por um neurônio A, em um determinado momento, são processados, e atingindo um dado limiar de ação, o neurônio A dispara, produzindo uma substância neurotransmissora que flui do corpo celular para o axônio, que pode estar conectado a um dendrito de um outro neurônio B. O neurotransmissor pode diminuir ou aumentar a polaridade da membrana pós-sináptica, inibindo ou excitando a geração dos pulsos no neurônio B. Este processo depende de vários fatores, como a geometria da sinapse e o tipo de neurotransmissor. Em média, cada neurônio forma entre mil e dez mil sinapses. O cérebro humano possui cerca de 10 E11 neurônios, e o número de sinapses é de mais de 10 E14, possibilitando a formação de redes muito complexa. REDES Neurais Artificiais. In: INSTITUTO de Ciências Matemáticas e de Computação da Universidade de São Paulo. São Paulo: 2020. Disponível em:

https://sites.icmc.usp.br/andre/research/neural/. Acesso em: 12 abr. 2020.

[22] MCCULLOCH, Warren S.; PITTS, Walter. A logical calculus of the ideas imanente in nervous activity. Bulletitin of Mathematical Biophysics, v.5, n.4, p.115-133, dez. 1943. Disponível em: https://doi.org/10.1007/BF02478259. Acesso: 12 abr, 2020.

.

[23] O dataset da aprendizagem não supervisionada tem muitos elementos, de modo que os algoritmos experimentem e aprendam propriedades úteis da estrutura desse dataset. Nas redes neurais artificiais, os algoritmos buscam aprender toda a distribuição de probabilidade que gerou um dataset. (Publicado em 1936, o Iris é o dataset mais antigo e o mais antigo e o mais utilizado na literatura de reconhecimento de padrões. Consta 150 exemplos da flor Iris do Havaí, que podem ser divididos em três classes a depender das medidas dos seus elementos. O dataset é um conjunto de dados rotulados, que cujo rótulo não é submetido para a máquina, mas será o dataset de teste, que ao fim e ao cabo resultará numa etapa de validação do desempenho da máquina em comparação aos rótulos esperados. HARTMANN, Fabiano Peixoto; SILVA, Roberta Zumblick M. da. Inteligência artificial e direito. Curitiba: Alteridade Editora, 2019. p. 92.

[24] MURPHY, Kevin P. Machine Learning: a probabilistic perspective. Cambridge/Londres: The MIT press, 2012. Disponível em: http://www.cs.ubc.ca/~murphyk/MLbook/pml-intro-22may12.pdf. Acesso em: 03 jan. 2020.

[25] Imagine treinar seu cão para se sentar e, se ele conseguir, dando-lhe um presente. O aprendizado por reforço tem sido uma maneira especialmente poderosa de criar sistemas de IA que jogam jogos. O problema com o aprendizado por reforço é que ele requer muitas práticas para que o algoritmo possa ter sucesso. Por esse motivo, é usado principalmente para jogos ou tarefas que podem ser simuladas em um computador em alta velocidade. O aprendizado por reforço pode ser usado no desenvolvimento de carros autônomos – mas não com a prática real de carros em estradas reais. Em vez disso, os carros virtuais são treinados em ambientes simulados. Depois que o software é treinado, ele pode ser movido para carros do mundo real. LEITE, Tiago M. Redes Neurais, Perceptron Multicamadas e o Algoritmo Backpropagation. In: ENSINA.AI. [S.I.], 10 de maio de 2018. Disponível em:

https://medium.com/ensina-ai/redes-neurais-perceptron-multicamadas-e-o-algoritmo-backpropagation-eaf89778f5b8. Acesso em: 19 abr. 2020.

[26] Sistemas Tutores Inteligentes (STI) proporcionam ensino individualizado onde o aluno é um agente ativo no processo de aprendizagem. Em STI, cinco grandes áreas: Psicologia (GRAIG, S. D. et al. The Tutoring Research Group. Memphis: Department of Psychology, The University of Memphis. Disponível em: http://psyc.memphis.edu/trg/trg.htm. Acesso em: 19 abr. 2020., Linguística, Inteligência Computacional (RUSSEL, Stuart J.; NORVIG, Peter. Artificial Intelligence: a modern approach. 2. ed. Nova Jersey, EUA: Prentice-Hall, 1998), Neurociência, Antropologia e Filosofia são naturalmente envolvidas com pesquisa e desenvolvimento. A meta é criar modelos de ensino que considerem o conhecimento prévio do aluno, sua habilidade com o ambiente de ensino e suas capacidades/pré-disposições cognitivas.

[27] MITCHELL, T. M. Machine Learning. Boston: McGraw-Hill, 1997.

[28] SUTTON, Richard; BARTO, Andrew G. Reinforcement Learning: An Introduction. Cambridge: The MIT Press, 2018.

Deixe uma resposta

O seu endereço de email não será publicado Campos obrigatórios são marcados *

*

Você pode usar estas tags e atributos de HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>