quinta-feira, 17 de novembro de 2022

Algoritmos para Tomada de Decisão

 Excelente livro de 700 páginas para download gratuito do MIT


A MIT Press apresenta em 2022 mais um excelente livro em Creative Commons.

-> Algorithms for decision making: free download book <-

Este livro fornece uma ampla introdução aos algoritmos para tomada de decisão sob situações de incerteza, ao cobrir uma ampla variedade de tópicos relacionados à tomada de decisões.

Assim, são apresentadas formulações de problemas matemáticos subjacentes e os algoritmos para resolvê-los.

O livro adota uma abordagem baseada em agentes, ou entidades que agem com base em observações de seu ambiente. Agentes podem ser entidades físicas, como humanos ou robôs, ou podem ser entidades não físicas, como sistemas de suporte à decisão que são implementados inteiramente em software.

A interação entre o agente e o ambiente segue um ciclo ou loop "Observar - Agir", ou seja:

- O agente no tempo T recebe uma observação do ambiente;
- As observações são frequentemente incompletas ou ruidosas;
- Com base nas entradas, o agente então escolhe uma ação por meio de algum processo de decisão;
- A ação escolhida, como o disparo de um alerta, pode ter um efeito não determinístico no ambiente;
- A narrativa enfoca agentes que interagem de forma inteligente para atingir seus objetivos ao longo do tempo; e
- Dada a sequência passada de observações e conhecimento sobre o ambiente, o agente deve escolher uma ação que melhor atinja seus objetivos na presença de várias fontes de incerteza, incluindo:

1. Incerteza do Resultado, onde os efeitos de nossas ações são incertos;
2. Incerteza do Modelo, onde nosso modelo do problema é incerto;
3. Incerteza de Estado, onde o verdadeiro estado do ambiente é incerto; e
4. Incerteza de Interação, onde o comportamento dos outros agentes que interagem no ambiente é incerto.

O livro está organizado em torno dessas quatro fontes de incerteza.

Finalmente, vale lembrar que tomar decisões na presença de incerteza é fundamental para o campo da inteligência artificial.

Faça agora seu download ou compra aqui: https://algorithmsbook.com/

sábado, 12 de novembro de 2022

Grandes Modelos de Linguagem (LLM) não são capazes de planejar, mesmo que escrevam ensaios científicos sofisticados


 Grandes modelos de linguagem (Large Language Model - LLM) têm um desempenho muito ruim em tarefas que exigem planejamento metódico

Grandes modelos de linguagem (LLM) como o GPT-3 avançaram ao ponto de se tornar difícil medir os limites de suas capacidades. Quando se tem uma rede neural muito grande que pode gerar artigos, escrever código de software e se envolver em conversas sobre senciência e vida, deve-se esperar que ela seja capaz de raciocinar sobre tarefas e planejar como um humano faz, certo?

 

Errado! Um estudo realizado por pesquisadores da Arizona State University, em Tempe, mostra que, quando se trata de planejar e pensar metodicamente, os LLMs têm um desempenho muito ruim e apresentaam várias das falhas observadas nos atuais sistemas de aprendizado profundo.

 

Curiosamente, o estudo descobriu que, embora LLMs muito grandes como GPT-3, LaMDA e PaLM passem em muitos dos testes destinados a avaliar as capacidades de raciocínio e sistemas de inteligência artificial, eles o fazem porque esses benchmarks são muito simplistas ou simplesmente falhos e podem ser “enganados” por meio de truques estatísticos, cenário do qual os sistemas de aprendizado profundo são muito bons.

 

Com os LLMs abrindo novos caminhos todos os dias, os autores sugerem um novo benchmark para testar os recursos de planejamento e raciocínio dos sistemas de IA. Os pesquisadores esperam que suas descobertas possam ajudar a direcionar a pesquisa de IA para o desenvolvimento de sistemas de inteligência artificial que possam lidar com o que se tornou popularmente conhecido como tarefas de “System 2 Thinking”.

 

A ilusão de planejar e raciocinar

“No ano passado, estávamos avaliando a capacidade do GPT-3 de extrair planos de descrições de texto – uma tarefa que foi tentada com métodos de propósito especial anteriormente – e descobrimos que o GPT-3 de prateleira funciona muito bem em comparação com os métodos de propósito especial”, disse Subbarao Kambhampati, professor da Arizona State University e coautor do estudo, ao TechTalks. “Isso naturalmente nos fez pensar que ‘capacidades emergentes’ o GPT3 teria para resolver os problemas de planejamento mais simples (por exemplo, gerar planejamentos em brinquedos de estratégia). Descobrimos imediatamente que o GPT3 é espetacularmente ruim em testes anedóticos.”

 

No entanto, um fato interessante é que o GPT-3 e outros grandes modelos de linguagem têm um desempenho muito bom em benchmarks projetados para raciocínio de senso comum, raciocínio lógico e raciocínio ético, habilidades que antes eram consideradas fora dos limites para sistemas de aprendizado profundo. Um estudo anterior do grupo de Kambhampati na Arizona State University mostra a eficácia de grandes modelos de linguagem na geração de planejamentos a partir de descrições de texto. Outros estudos recentes incluem um que mostra que os LLMs podem fazer raciocínio de tiro zero (zero-shot reasoning) se fornecidos com uma frase-gatilho especial.

 

No entanto, o “raciocínio” é frequentemente usado amplamente nesses benchmarks e estudos, acredita Kambhampati. O que os LLMs estão fazendo, na verdade, é criar uma aparência de planejamento e raciocínio por meio do reconhecimento de padrões.

 

“A maioria dos benchmarks depende do tipo de raciocínio superficial (uma ou duas etapas), bem como tarefas para as quais às vezes não há verdade real (por exemplo, fazer com que os LLMs raciocinem sobre dilemas éticos)”, disse ele. “É possível que um mecanismo puramente de conclusão de padrões sem recursos de raciocínio ainda funcione bem em alguns desses benchmarks. Afinal, enquanto, algumas vezes, as habilidades do System 2 Reasoning podem ser compiladas para o System 1, em outras situações as ‘habilidades de raciocínio’ do System 1 podem ser apenas respostas reflexivas de padrões que o sistema percebeu em seus dados de treinamento, sem realmente realizar nada que se assemelhe ao raciocínio.”

System 1 e System 2 Thinking


Os sistemas de pensamento System 1 e o System 2 Thinking foram popularizados pelo psicólogo Daniel Kahneman em seu livro “Thinking Fast and Slow”. O primeiro (System 1) é o tipo de pensamento e ação rápido, reflexivo e automatizado que fazemos na maioria das vezes, como caminhar, escovar os dentes, amarrar os sapatos ou dirigir em uma área familiar. Mesmo uma grande parte da fala é realizada pelo System 1.

 

O System 2, por outro lado, é o modo de pensamento mais lento, que usamos para tarefas baseadas em planejamento e análise metódicos. Usamos o System 2 para resolver equações de cálculo, jogar xadrez, projetar software, planejar uma viagem, resolver um quebra-cabeça etc.

 

Porém, a linha entre o System 1 e o System 2 não é clara e evidente. Ao analisarmos a condução de um veículo, por exemplo, vemos como os sistemas podem se sobrepor. Quando estamos aprendendo a dirigir, devemos nos concentrar totalmente em como coordenar seus músculos para controlar a marcha, o volante e os pedais, ao mesmo tempo em que estamos de olho na estrada e nos espelhos laterais e traseiros. Este é claramente o System 2 em ação. Consome muita energia, requer toda nossa atenção e é lento. Mas à medida que repetimos os procedimentos gradualmente, aprendemos a fazê-los sem pensar. A tarefa de dirigir muda para o nosso System 1, permitindo que a executemos sem sobrecarregar a mente. Um dos critérios de uma tarefa que foi integrada ao System 1 é a capacidade de fazê-la inconscientemente enquanto se concentra em outra tarefa (por exemplo, podemos amarrar o sapato e falar ao mesmo tempo, escovar os dentes e ler, dirigir e conversar etc.).

 

Mesmo muitas das tarefas muito complicadas que permanecem no domínio do System 2 acabam se tornando parcialmente integradas ao System 1. Por exemplo, jogadores profissionais de xadrez confiam muito no reconhecimento de padrões para acelerar seu processo de tomada de decisão. Podemos ver exemplos semelhantes em matemática e programação, onde, depois de fazer as coisas repetidamente, algumas das tarefas que anteriormente exigiam um pensamento cuidadoso vêm a nós automaticamente.

 

Um fenômeno semelhante pode estar acontecendo em sistemas de aprendizado profundo que foram expostos a conjuntos de dados muito grandes. Eles podem ter aprendido a fazer a fase simples de reconhecimento de padrões de tarefas complexas de raciocínio.

 

“A geração de planos requer o encadeamento de etapas de raciocínio para chegar a um plano, e uma verdade firme sobre a correção pode ser estabelecida”, disse Kambhampati.

 

Um novo benchmark para planejamento de testes em LLMs


“Dada a empolgação em torno das propriedades ocultas/emergentes dos LLMs, no entanto, pensamos que seria mais construtivo desenvolver um benchmark que fornecesse uma variedade de tarefas de planejamento/raciocínio que pudessem servir como referência à medida que as pessoas melhorassem os LLMs por meio de ajustes finos e outras abordagens para personalizar/melhorar seu desempenho em tarefas de raciocínio. Foi isso que acabamos fazendo”, disse Kambhampati.

 

A equipe desenvolveu seu benchmark com base nos domínios usados na Competição Internacional de Planejamento (International Planning Competition - IPC). A estrutura consiste em várias tarefas que avaliam diferentes aspectos do raciocínio. Por exemplo, algumas tarefas avaliam a capacidade do LLM de criar planos válidos para atingir uma determinada meta, enquanto outras testam se o plano gerado é o ideal. Outros testes incluem raciocinar sobre os resultados de um plano, reconhecer se diferentes descrições de texto se referem ao mesmo objetivo, reutilizar partes de um plano em outro, embaralhar planos e muito mais.

 

Para realizar os testes, a equipe usou o Blocks World, um framework de problemas que gira em torno da colocação de um conjunto de diferentes blocos em uma determinada ordem. Cada problema tem uma condição inicial, um objetivo final e um conjunto de ações permitidas.

 

“O benchmark em si é extensível e deve ter testes de vários domínios IPC”, disse Kambhampati. “Usamos os Blocos exemplos mundiais para ilustrar as diferentes tarefas. Cada uma dessas tarefas (por exemplo, geração de planos, embaralhamento de metas etc.) também pode ser colocada em outros domínios do IPC.”

 

O benchmark desenvolvido por Kambhampati e seus colegas usa o Few-Shot Learning, onde o prompt dado ao modelo de aprendizado de máquina inclui um exemplo resolvido além do problema principal que deve ser resolvido.

 

Ao contrário de outros benchmarks, as descrições dos problemas desse novo benchmark são muito longas e detalhadas. Resolvê-los requer concentração e planejamento metódico e não pode ser enganado pelo reconhecimento de padrões. Mesmo um humano que quisesse resolvê-los teria que pensar cuidadosamente sobre cada problema, fazer anotações, possivelmente fazer visualizações e planejar a solução passo a passo.

 

“O raciocínio é uma tarefa do System 2 em geral. A ilusão coletiva da comunidade tem sido olhar para esses tipos de benchmarks de raciocínio que provavelmente poderiam ser tratados por meio de compilação para o System 1 (por exemplo, 'a resposta para esse dilema ético, por conclusão de padrão, é essa') em vez de realmente raciocinar sobre o que é realmente necessário para execução da tarefa em mãos”, disse Kambhampati.

 

Grandes modelos de linguagem são ruins em planejamento


Os pesquisadores testaram sua estrutura no Davinci, a maior versão do GPT-3. Seus experimentos mostram que o GPT-3 tem desempenho medíocre em alguns tipos de tarefas de planejamento, porém apresenta um péssimo desempenho em áreas como reutilização de planos, generalização de planos, planejamento ideal e replanejamento.

 

“Os estudos iniciais que vimos mostram basicamente que os LLMs são particularmente ruins em qualquer coisa que seja considerada tarefas de planejamento – incluindo geração de planos, geração de planos ideais, reutilização ou replanejamento de planos”, disse Kambhampati. “Eles se saem melhor nas tarefas relacionadas ao planejamento que não exigem cadeias de raciocínio – como embaralhar as metas.”

 

No futuro, os pesquisadores adicionarão casos de teste com base em outros domínios do IPC e fornecerão linhas de base de desempenho com sujeitos humanos nos mesmos benchmarks.

 

“Também estamos curiosos para saber se outras variantes de LLMs se saem melhor nesses benchmarks”, disse Kambhampati.

 

Kambhampati enfatiza que o objetivo do projeto é lançar o benchmark e dar uma ideia de onde está a linha de base atual. Os pesquisadores esperam que seu trabalho abra novas janelas para o desenvolvimento de capacidade de planejamento e raciocínio para os atuais sistemas de IA. Por exemplo, uma direção que eles propõem é avaliar a eficácia do ajuste fino de LLMs para raciocínio e planejamento em domínios específicos. A equipe já tem resultados preliminares em uma variante do GPT-3 que segue instruções que parece ter um desempenho marginalmente melhor nas tarefas fáceis, embora também permaneça em torno do nível de 5% para tarefas reais de geração de planos, disse Kambhampati.

 

Kambhampati também acredita que aprender e adquirir modelos de mundo seria um passo essencial para qualquer sistema de IA que possa raciocinar e planejar. Outros cientistas, incluindo o Deep Learning Pioneer Yann LeCun, fizeram sugestões semelhantes.

 

“Se concordarmos que o raciocínio faz parte da inteligência e pretendermos afirmar que os LLMs atingem esse patamar, certamente precisaremos de benchmarks de geração de planos para validar essa tese”, disse Kambhampati. “Ao invés de assumir uma posição negativa magistral, estamos fornecendo um benchmark, para que as pessoas que acreditam que o raciocínio pode emergir de LLMs, mesmo sem quaisquer mecanismos especiais, como modelos de mundo e raciocínio sobre dinâmica, possam usar o benchmark para apoiar seu ponto de vista."

 

Este artigo foi originalmente publicado por Ben Dickson (Twitter @bendee983) no TechTalks, uma publicação que examina as tendências em tecnologia, como elas afetam a maneira como vivemos e fazemos negócios e os problemas que elas resolvem. Mas também discutimos o lado maligno da tecnologia, as implicações mais sombrias da nova tecnologia e o que precisamos observar. Leia o artigo original aqui.






quinta-feira, 31 de março de 2022

O foco do CIO Pós-Pandêmico

O CIO Pós-Pandêmico

Se o cargo de Chief Information Officer já vinha evoluindo de Especialista em Tecnologia para Líder Estratégico de Negócios no decorrer dos últimos anos, a pandemia certamente serviu para acelerar esse movimento. 

Porém, agora que os horizontes do CIO se expandiram, eles devem escolher suas prioridades com cuidado.

... da decisão sobre planejamento e alocação do orçamento às novas tecnologias certas, passando pelas medidas de reforço da segurança indo até o gerenciamento da atual escassez de habilidades... 

Sempre devemos nos lembrar da sábias palavras do tio Ben, ou seja, "com grandes poderes vem grandes responsabilidades"...

Veja como a Raconteur entende onde os CIOs estarão concentrando suas energias daqui para frente:


Fonte / Source: Raconteur - https://bit.ly/3uymmNe 


terça-feira, 8 de março de 2022

O Blockchain e a Inteligencia Artificial (IA)

A convergência do blockchain com a Inteligência Artificial gera ainda mais valor aos negócios


Resumidamente, o Blockchain é um registro de informações compartilhado e imutável que fornece uma troca imediata, compartilhada e transparente de dados criptografados para as partes envolvidas, à medida que iniciam e concluem suas transações.

Uma rede blockchain pode rastrear pedidos, pagamentos, contas, resultados da produção etc. Como os membros autorizados nessa rede compartilham uma visão única da informação, as partes ficam mais confiantes em realizar suas transações com os demais participantes do blockchain. 

Também em poucas palavras, a Inteligência Artificial (IA ou AI), por sua vez, aproveita computadores e dados para imitar os recursos de resolução de problemas e tomada de decisão da mente humana. Abrangendo ainda os subcampos de aprendizado de máquina e aprendizado profundo, que usam algoritmos de IA treinados em dados para fazer previsões ou classificações e ficar mais inteligentes ao longo do tempo. Os benefícios da IA incluem automação de tarefas repetitivas, tomada de decisão aprimorada e uma melhor experiência do usuário. 

Valores combinados do Blockchain e da Inteligência Artificial

Autenticidade e Segurança

O registro digital do Blockchain oferece informações sobre a estrutura por trás da IA e a proveniência dos dados que está usando, abordando o desafio da IA Explicável (Explainable AI ou xAI). Isso ajuda a melhorar a confiança na integridade dos dados e, por extensão, nas recomendações que a IA oferece.

O uso de blockchain para armazenar modelos, dados e pesos de IA, de forma definitiva e imutável (cryto Write Once, Read Many - WORM), fornecendo uma trilha de auditoria. Assim, a distribuição destes artefatos em uma rede blockchain contribui de forma clara para melhorar a segurança dos dados.

Mais precisamente, o emparelhamento do Blockchain à IA ajuda a mitigar uma das grandes vulnerabilidades atuais da IA, ou seja, o famoso "Data Poisoning" ou adulteração do seu conjunto de dados de aprendizado de máquina, com inserção de exemplos específicos para geração de resultados escusos por agressores ou instituições (também chamado de “envenenamento de dados”). Além disso, o poisoning também pode ocorrer nos pesos salvos da rede neural, a fim de se realizar inferências. Risco este que, da mesma forma, pode ser mitigado gravando-se os pesos da rede neural em blockchain.


Assim, certamente, uma das maiores vantagens da camada de proteção da Inteligência Artificial baseada em blockchain seja a geração de um registro da prova de adulteração, que não apenas ajudará a identificar casos suspeitos de “envenenamento de dados” no passado, mas também contribuirá para evitar que eles aconteçam no futuro. No Blockchain, a IA tem acesso a dados que não são apenas resistentes a adulterações e seguros por design, mas vêm com um registro matemático que prova que não foram adulterados. o que viabiliza o provisionamento de ambientes mais abertos, descentralizados e até mesmo sem permissão, democratizando a IA para todos.


Abrangência e Capilaridade

A IA é capaz de ler, entender e correlacionar dados de forma rápida e abrangente a uma velocidade incrível, trazendo um novo nível de inteligência para redes de negócios baseadas em blockchain. Por outro lado, ao fornecer acesso a grandes volumes de dados de dentro e de fora da organização, o Blockchain ajuda a IA a escalar para fornecer insights mais aplicáveis, a gerenciar o uso de dados e o compartilhamento de modelos e a criar uma economia de dados confiável e transparente.

Automação Eficaz e Eficiente

IA, Automação e Blockchain podem agregar novos valores aos processos de negócios que abrangem várias partes e etapas – removendo atritos e aumentando a velocidade e a eficiência. Por exemplo, os modelos de IA incorporados em contratos inteligentes (SmartContracts) executados em um blockchain ampliam significativamente a robustez dos algoritmos.