Gestió del Patrimoni
Tinc una passió per la gestió del patrimoni i les humanitats digitals...Si vols llegir-ne més...
Explora el repositori del Projector del Patrimoni a GitHub: EauDeData/cvc-dataset-projector
I una visió general d'algunes aplicacions: Portal XPP
Recerca
Les meves principals contribucions a la CIÈNCIA!Troba en aquesta secció el meu treball sobre comprensió de documents i recuperació d'informació en fonts històriques.

Docència
Visita aquí els projectes docents, propostes i recursos que he preparat per a tots vosaltres :) .Lectures Recomanades
Aritmètica de Tasques a l'Espai Tangent: Edició Millorada de Models Pre-entrenats
L'aritmètica de tasques ha emergit recentment com un enfocament cost-efectiu i escalable per editar models pre-entrenats directament a l'espai de pesos: Afegint els pesos ajustats de diferents tasques, el rendiment del model pot millorar-se en aquestes tasques, mentre que negar-los porta a l'oblit de la tasca. No obstant això, la nostra comprensió de l'eficàcia de l'aritmètica de tasques i els seus principis subjacents continua sent limitada. Presentem un estudi exhaustiu de l'aritmètica de tasques en models de visió-llenguatge i mostrem que la separació de pesos és el factor crucial que la fa efectiva. Aquesta propietat sorgeix durant el pre-entrenament i es manifesta quan direccions distintes a l'espai de pesos governen regions separades i localitzades a l'espai de funcions associades amb les tasques. Notablement, mostrem que ajustar models al seu espai tangent linearitzant-los amplifica la separació de pesos. Això porta a millores substancials del rendiment en múltiples punts de referència d'aritmètica de tasques i models diversos. Basant-nos en aquestes troballes, proporcionem anàlisis teòriques i empíriques del kernel tangent neural (NTK) d'aquests models i establim una connexió convincent entre l'aritmètica de tasques i la localització espacial de les eigenfuncions del NTK. En general, el nostre treball descobreix noves perspectives sobre els mecanismes fonamentals de l'aritmètica de tasques i ofereix un enfocament més fiable i efectiu per editar models pre-entrenats mitjançant la linearització NTK.
Com Convertir l'Espai Latent de Grafs de Coneixement en Models Generatius
Alguns dels models vectorials de graf de coneixement (KGE) més exitosos per a la predicció d'enllaços -- CP, RESCAL, TuckER, ComplEx -- poden interpretar-se com a models basats en energia. Des d'aquesta perspectiva no són adequats per a l'estimació exacta de màxima versemblança (MLE), mostreig i lluiten per integrar restriccions lògiques. Aquest treball reinterpreta les funcions de puntuació d'aquests KGEs com a circuits -- grafs computacionals restringits que permeten marginalització eficient. Després, dissenyem dues receptes per obtenir models de circuit generatiu eficients ja sigui restringint les seves activacions a ser no-negatives o elevant al quadrat les seves sortides. La nostra interpretació ve amb poca o cap pèrdua de rendiment per a la predicció d'enllaços, mentre que el marc de circuits desbloqueja l'aprenentatge exacte per MLE, mostreig eficient de noves triples, i garanteix que les restriccions lògiques es satisfacin per disseny. A més, els nostres models escalen més elegantment que els KGEs originals en grafs amb milions d'entitats.
Proxies Relacionals: Relacions Emergents com a Discriminadors de Gra Fi
Les categories de gra fi que comparteixen en gran mesura el mateix conjunt de parts no poden discriminar-se basant-se només en la informació de les parts, ja que difereixen principalment en la manera com les parts locals es relacionen amb l'estructura global general de l'objecte. Proposem Proxies Relacionals, un enfocament nou que aprofita la informació relacional entre les vistes globals i locals d'un objecte per codificar la seva etiqueta semàntica. Començant amb una formalització rigorosa de la noció de distinguibilitat entre categories de gra fi, demostrem les condicions necessàries i suficients que un model ha de satisfer per aprendre els límits de decisió subjacents en l'entorn de gra fi. Dissenyem Proxies Relacionals basant-nos en les nostres troballes teòriques i l'avaluem en set conjunts de dades de referència de gra fi desafiants i aconseguim resultats d'última generació en tots ells, superant el rendiment de tots els treballs existents amb un marge que supera el 4% en alguns casos. També validem experimentalment la nostra teoria sobre la distinguibilitat de gra fi i obtenim resultats consistents en múltiples punts de referència.
Articles i Comunitat
Explora el graf de citacions dels meus principals interessos en recerca. O no ho facis, tant me fa.
Explora el graf d'interessos: Graf Retina
Explora les col·laboracions i articles que hem fet al meu grup de recerca! (només fingeix que no es va actualitzar per darrer cop fa 100 anys)
Explora el graf DAG: Graf Retina