OI Walter. Numa outra direção eu perguntaria: o que se pode fazer com uma semântica como essa?
Numa primeira vista, esse resultado só mostra que toda rede neural, não importa com quais dados foi treinada, tem uma semântica. Mas, e daí? Seria a semântica capaz de mostrar algo interessante como, dadas duas redes, seriam elas "semelhantes"? Seria uma o refinamento de outra, a partir de mais dados? Seriam elas conflituosas em algum sentido? Essas perguntas são muito interessantes do ponto de vista de análises destas redes. O que esta semântica tem a dizer a respeito dessas perguntas? []s Marcelo Em qua., 29 de jan. de 2025 às 17:08, Walter Carnielli <walte...@unicamp.br> escreveu: > Pessoal, > > Há poucos dias, fiquei sabendo de uma conexão muito interessante entre > lógica, categoria e raciocínio sobre Inteligência Artificial. > > Achei tão fascinante que gostaria de compartilhar com vocês. Está no artigo > > “An Enriched Category Theory of Language: From Syntax to Semantics” > Tai-Danae Bradley¹ · John Terilla² · Yiannis Vlassopoulos > La Matematica (2022) 1:551–580 > https://doi.org/10.1007/s44007-022-00021-2 > > https://arxiv.org/abs/2106.07890 > > Thomas Seiller, do CNRS (Paris Nord), falou sobre isso aqui no Keck > Center da Chapman no dia 24. > > Em resumo: > > Grandes Modelos de Linguagem (LLM), como sabemos, geram textos em > linguagem natural a partir de qualquer entrada. O artigo propõe uma > estrutura matemática para passar de distribuições de probabilidade > sobre textos, como as que são aprendidas pelos modelos de linguagem > atuais, para uma categoria muito mais rica que contenha informações > semânticas. > > Os objetos dessa categoria são expressões linguísticas, e os morfismos > são probabilidades condicionais de que uma expressão seja uma extensão > de outra. Usando o Lema de Yoneda, eles passam para a categoria > enriquecida de pre-sheaves (pre-feixes). Essa abordagem gera uma > categoria semântica, que inclui operações lógicas que permitem > extensão para conceitos semânticos mais elaborados. > > O belo disso é que explica o que chamamos de "semântica" nos LLM (GPT > e agora DeepSeek), e isso, às vezes surpreende. Pelo menos a mim, me > surpreende, embora eu saiba que é um conjunto de algoritmos envolvendo > álgebra linear, probabilidades condicionais e cálculo 1. Parece > impossível gerar semântica a partir disso… > > Abraços. > > Walter > > > -- > ======================== > Walter Carnielli > CLE and Department of Philosophy > University of Campinas –UNICAMP, Brazil > > Chapman University, Orange, CA, USA > > AI2- Advanced Institute for Artificial Intelligence > Blog https://waltercarnielli.com/ > > https://www.name-coach.com/walter-carnielli > > -- > LOGICA-L > Lista acadêmica brasileira dos profissionais e estudantes da área de > Lógica <logica-l@dimap.ufrn.br> > --- > Você está recebendo esta mensagem porque se inscreveu no grupo "LOGICA-L" > dos Grupos do Google. > Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie > um e-mail para logica-l+unsubscr...@dimap.ufrn.br. > Para ver esta conversa, acesse > https://groups.google.com/a/dimap.ufrn.br/d/msgid/logica-l/CAOrCsLeTHBwYDZuFq7UPX6u2wAaszf%2BWN3bnGGx0iZ23dEoNcg%40mail.gmail.com > . > -- Marcelo Finger Departament of Computer Science, IME-USP http://www.ime.usp.br/~mfinger ORCID: https://orcid.org/0000-0002-1391-1175 ResearcherID: A-4670-2009 Instituto de Matemática e Estatística, Universidade de São Paulo Rua do Matão, 1010 - CEP 05508-090 - São Paulo, SP -- LOGICA-L Lista acadêmica brasileira dos profissionais e estudantes da área de Lógica <logica-l@dimap.ufrn.br> --- Você está recebendo esta mensagem porque se inscreveu no grupo "LOGICA-L" dos Grupos do Google. Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um e-mail para logica-l+unsubscr...@dimap.ufrn.br. Para ver esta conversa, acesse https://groups.google.com/a/dimap.ufrn.br/d/msgid/logica-l/CAGG7Aw0_Y3-N2tPWe8Kgnfik_iukyNDVwujGcKrDehfG7aciKA%40mail.gmail.com.