Inteligência Artificial e Filosofia: considerações iniciais

Inteligência Artificial (IA) é um novo ramo de investigação científica que estuda as condições estruturais e materiais para agentes artificiais agirem racionalmente. É claro, se você der uma investigada na literatura contemporânea, encontrará mais de uma definição para o termo ‘AI’ (‘Artificial Intelligence’). Alguns definem AI como a tentativa de implementação de processos cognitivos característicos dos humanos. Outros definem o campo como o estudo computacional do pensamento, da ação e da percepção. Há ainda a definição de que a Inteligência Artificial é uma engenharia de artifactos que exibem comportamento inteligente.

As distintas nuances, porém, carregam um núcleo comum – todas recorrem a uma estrutura algorítmica que permite uma performance racional por parte de um mecanismo artificial, performance esta relacionada a uma propriedade ou relação cognitiva (inteligência, pensamento, percepção, problem-solving, aprendizado, etc). Dado o desenvolvimento e a excitação em torno desta nova área de investigação, é natural que dúvidas e abordagens filosóficas passem a ser desenvolvidas acerca disso. Gostaria então de fazer alguns comentários sobre as relações entre filosofia e IA.

Há pelo menos três matérias que você precisa ter um certo domínio para entender a Inteligência Artificial: lógica, matemática e programação computacional. As abordagens filosóficas a este campo de investigação ganham valor teórico, e fazem jus às propostas da IA, ao considerar estas três matérias com um certo grau de entendimento. É este entendimento que pode vir a proporcionar uma compreensão sobre a relação dos objetos de estudo destas áreas com o próprio objeto de estudo da IA. Se você não entender distribuições de probabilidade condicional, por exemplo, terá dificuldades para fazer um juízo apropriado sobre a afirmação de que agentes cognitivos artificiais realizam operações inferenciais sobre crenças adquiridas de um modo racional.  Se você não entender relações lógicas, terá dificuldades para fazer um juízo apropriado sobre a afirmação de que a implementação de padrões de raciocínio (monotônicos ou não-monotônicos), unida à representação de informações por meio de sinais, pode vir a proporcionar um comportamento cognitivo capaz de resolver problemas de alta ou baixa complexidade.

Além disso, a filosofia precisa construir uma análise sobre as propriedades e conceitos gerais que são incorporados no contexto da Inteligência Artificial. Como pode um filósofo investigar sobre a possibilidade de criar agentes racionais se ele não tem conhecimento sobre as condições necessárias e/ou suficientes para a racionalidade? Em outras palavras, é preciso definir o que é ser racional para que se possa responder se é possível ou não para um agente cognitivo artificial ser racional.

Considerações similares aplicam-se aos conceitos de inteligência, aprendizado e finalidade. O que é ser inteligente? É saber resolver problemas práticos com eficiência? Ou então há vários tipos de inteligência, todas elas com um padrão comum? Sobre o aprendizado, parece que aprender envolve observar o fato de que há uma maneira correta de fazer algo, como também envolve, em sistemas mais complexos, a observação de que cometemos erros. Mas isso quer dizer que aprendizado exige observações de segunda ordem (observações sobre a própria performance do sistema cognitivo). É então a consciência uma condição necessária para o aprendizado?

Estas e outras são as tarefas analíticas a serem desenvolvidas neste novo desafio de construir teorias filosóficas sobre a Inteligência Artificial. Mas adiante, postarei aqui sobre alguns desenvolvimentos da minha pesquisa acerca de padrões de racionalidade epistêmica (racionalidade cujo fim é ter um sistema de crenças verdadeiras e evitar crenças falsas). Meu interesse está justamente na possibilidade de um agente cognitivo artificial ser epistemicamente racional. De todo modo, acho que o diálogo aqui é fascinante, e nos remete a uma possibilidade de romper barreiras, à possibilidade de criar o que parecia ser incriável.

4 comentários

  1. marcosfanton · · Responder

    Luis, mas quando você fala em “ser racional”, “racionalidade epistêmica” ligada à AI, qual o alcance deste sistema de crenças? Por exemplo, um robô programado para “imitar” a voz de um ser humano, ele terá um sistema bastante específico de crenças; já outro programado para limpar um quarto, terá outro, com uma especificidade específica. Como tu vês essa questão – ou como isso seria visto em AI? Digo: a racionalidade buscada é sempre uma racionalidade específica, não? Para realizar determinado tipo de tarefa, etc.

  2. os agentes cognitivos artificiais são designados para otimizarem muitas finalidades distintas, sim. uma AI que joga xadrez, por exemplo, tem uma finalidade específica, que é derrotar o oponente humano. mas a finalidade específica é só um dos componentes da racionalidade – e a finalidade obviamente entra nas funções de problem-solving e search, que são métodos de achar soluções para problemas práticos ou teóricos e esquadrinhar as melhores alternativas (a melhor alternativa, no problema prático, é definida em termos de uma função somatória de ‘custos’ – quantidade de tempo, por exemplo -, enquanto que uma melhor alternativa no problema teórico é definida em termos de eliminação de alternativas com alta complexidade, mas que igualmente solucionam o problema).
    não sei te dizer se esta variação de finalidades é suficiente para falar em uma variação de racionalidade – por que os meios para atingir os fins, ou os métodos, mantém uma forma similar, e certamente deve existir um padrão entre eles. de todo modo, a tua pergunta parece realçar uma diferença real entre tipos de racionalidade, o que é um ponto muito importante na discussão. a diferença real a que me refiro é aquela entre racionalidade prática e racionalidade epistêmica. neste caso sim, a diferenciação entre elas é realizada pela identificação de seus respectivos fins. uma pessoa com uma doença terminal, por exemplo, usa de racionalidade prática quando crê que vai melhorar – esta pessoa adquire esta crença visando o bem-estar e a melhora, que são fins práticos. algo diferente ocorre se a pessoa adquire uma crença visando a verdade. no caso anterior, se há fortes evidências de que a pessoa não vai ser curar, é epistemicamente racional para ela crer que ela de fato não vai melhorar.
    por isso, o escopo da racionalidade epistemica parece ser menor e mais estrito do que o escopo da racionalidade prática, e esta diferença de escopo se reflete inclusive na própria AI

  3. Raquelmasil · · Responder

    Obrigada pelo texto, Luiz. Estou fazendo uma pesquisa sobre como a AI está ao mesmo tempo fazendo com que a filosofia reveja muitos conceitos e encare novos. Estou encontrando dificuldades em encontrar textos de filosofos envolvidos em AI. Se puder me indicar alguns livros eu te agradeço.

  4. Pablo Rafael Rolim dos Santos · · Responder

    Luis, você elencou três grandes campos que julga serem necessários para a pesquisa feita com IA. Eu tenho bastante interesse nisso, principalmente pelas discussões que leio (com compreensão muito rasa) sobre a relação entre a criação de AI e Riscos Existenciais (http://www.existential-risk.org/concept.pdf , http://intelligence.org/research/). Esses campos citados por você são muito vastos, você teria sugestões mais específicas de assuntos de entrada?

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão / Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão / Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão / Alterar )

Google+ photo

Está a comentar usando a sua conta Google+ Terminar Sessão / Alterar )

Connecting to %s

%d bloggers like this: