
Charles BODON
Charles Bodon is currently Ph.D. Candidate and Teaching Fellow at University of Paris I: Panthéon-Sorbonne.
His research focuses on the new types of realism to which the Web's digital devices subject users, whether through virtual reality, Deepfake, or even social networks. More particularly, he works on how these devices modify our relationship to spatiotemporal continuity, for example when they reproduce different contexts (close or distant, real or fictional) using digital images and make them appear instantly on screens.
He is interested in the different technical and artistic processes that involve generative artificial intelligence and attempts to relate them to social uses, for example through the use of conversational agents or generative text and image models.
Correlatively, he works on the types of relationships and knowledge that emerge from writing and reading practices assisted by digital tools (such as symbolic artificial intelligence). In this regard, his research focuses on the notions of "document", "grammatization", and "transmediation" from a hermeneutic perspective.
This, ultimately, to criticize the misuse of language about digital technologies and, through conceptual analysis, to think the new forms of rationality that are at work in the real-virtual couple.
For this, he approaches four major axes that allow him to treat the ontology of human-machine interaction :
1) Philosophy of language and logic (in a pragmatist perspective inherited from Wittgenstein and Peirce).
2) New Realism, a European philosophical movement of the 21st century that attempts to renew the question of reality through a critique of postmodernism.
3) Anthropology and history of techniques (about writing and the notion of “graphic reason” from the work of Jack Goody).
4) Knowledge Representation and Reasoning (particularly through computer ontologies and the interdisciplinarity these technologies imply).
Articles are available on his ResearchGate and Academia pages.
Thesis: "The Web of Reality: New Realism Facing the Virtuality of the Web"
Supervisors: Pr. Jocelyn Benoist
His research focuses on the new types of realism to which the Web's digital devices subject users, whether through virtual reality, Deepfake, or even social networks. More particularly, he works on how these devices modify our relationship to spatiotemporal continuity, for example when they reproduce different contexts (close or distant, real or fictional) using digital images and make them appear instantly on screens.
He is interested in the different technical and artistic processes that involve generative artificial intelligence and attempts to relate them to social uses, for example through the use of conversational agents or generative text and image models.
Correlatively, he works on the types of relationships and knowledge that emerge from writing and reading practices assisted by digital tools (such as symbolic artificial intelligence). In this regard, his research focuses on the notions of "document", "grammatization", and "transmediation" from a hermeneutic perspective.
This, ultimately, to criticize the misuse of language about digital technologies and, through conceptual analysis, to think the new forms of rationality that are at work in the real-virtual couple.
For this, he approaches four major axes that allow him to treat the ontology of human-machine interaction :
1) Philosophy of language and logic (in a pragmatist perspective inherited from Wittgenstein and Peirce).
2) New Realism, a European philosophical movement of the 21st century that attempts to renew the question of reality through a critique of postmodernism.
3) Anthropology and history of techniques (about writing and the notion of “graphic reason” from the work of Jack Goody).
4) Knowledge Representation and Reasoning (particularly through computer ontologies and the interdisciplinarity these technologies imply).
Articles are available on his ResearchGate and Academia pages.
Thesis: "The Web of Reality: New Realism Facing the Virtuality of the Web"
Supervisors: Pr. Jocelyn Benoist
less
Related Authors
Yue Zhuo
East China Normal University
Marie Després-Lonnet
Université de Lille
Jean Davallon
Université d'Avignon
Jean Davallon
Université Avignon
Moussa munna moussa
Universite Abdou Moumouni de Niamey
Stéphane Mroczkowski
Université de Strasbourg
Sylviane Médard
University of Grenoble
InterestsView All (19)
Uploads
Call For Papers by Charles BODON
https://www.implications-philosophiques.org/appel-a-contributions-dossier-le-virtuel-et-ses-avatars/
Articles by Charles BODON
Talks by Charles BODON
Science Communication & General Public by Charles BODON
https://www.telecom-paris-alumni.fr/fr/revue/numeros/europe-et-innovation/3579
D’aucuns y verront pur fanatisme d’illuminés scientistes au service d’un libéralisme des plus décomplexé, là où d’autres crieront au génie de chercheurs qui osent tenter de transcender les limites mêmes de la nature humaine. Pour se faire son propre avis sur la question et s’initier aux préceptes transhumanistes, encore faut-il revenir quelques années en arrière pour comprendre comment un tel mouvement a pu voir le jour et dans quelle mesure il y a lieu de croire ou de rejeter ses idéaux. C'est ici l'enjeu de cet article à destination du grand public.
Thesis by Charles BODON
Master Thesis by Charles BODON
This work presents the link between artificial intelligence (AI) and hermeneutics through the common interest they have about the study of language and the interpretation of texts. Also, it aims for questioning the level of understanding that a machine has about the meaning of words and propositions of a language. By presenting the computational hermeneutics model, the interpretation of digital texts, and its techniques, we will observe an analogy between the traditional hermeneutic circle of understanding-explaining in philosophy and philology, with the informatics process of bootstrapping. We will see that the traditional hermeneutic circle is renewed into a human-machine collaboration defined as a “hermeneutic network”: here, the machine produces a grammatical explanation of the text, and humans (philosophers, experts, documentalists, etc.) interpret the results. There is a virtuous circle: humans obtain a clarification of the meaning of the text, and the machines are learning from the data that humans provide them. We focus on a historical approach of the subject in two parts: a first starting from the birth of AI in 1930-1950, with the critics it has faced in 1960-1980; a second presenting the emergence of computational hermeneutics models from 1985 to 2018. At the end of this work, we will present the computer ontologies: AIs able to provide a semantic representation of the content of a text usable in order to apply the hermeneutic network. The challenge will be to show how the principles of traditional hermeneutics allow an approach to AI that takes into account the philosophical criticism that it has encountered throughout its history.
Résumé :
Ce mémoire présente le lien entre l'intelligence artificielle (IA) et l'herméneutique à travers l'intérêt commun que ces disciplines portent à l'étude du langage et à l'interprétation des textes. Aussi, il vise à interroger le niveau de compréhension qu'une machine a du sens des mots et des propositions d'un langage. En présentant le modèle d'herméneutique computationnelle, l'interprétation des textes numériques et ses techniques, nous observerons une analogie entre le cercle herméneutique traditionnel de la compréhension-explication en philosophie et en philologie, avec le processus informatique de “bootstrapping”. Nous verrons que le cercle herméneutique traditionnel se renouvelle en une collaboration humain-machine définie comme un « réseau herméneutique » : ici, la machine produit une explication grammaticale du texte, et les humains (philosophes, experts, documentalistes, etc.) interprètent le résultat. Il y a un cercle vertueux : les humains obtiennent une clarification du sens du texte, et les machines apprennent des données que les humains leur fournissent. Nous nous concentrons sur une approche historique du sujet en deux parties : une première à partir de la naissance de l'IA en 1930-1950, avec les critiques auxquelles elle a été confrontée en 1960-1980 ; une seconde présentant l’apparition des modèles d'herméneutique computationnelle de 1985 à 2018. À la fin de ce travail nous présenterons les ontologies informatiques : des IAs capables de fournir une représentation sémantique du contenu d'un texte, utilisable pour appliquer le réseau herméneutique. L’enjeu sera de montrer en quoi les principes de l’herméneutique traditionnelle permettent une approche de l’IA prenant en compte les critiques philosophiques que celle-ci a pu rencontrer à travers son histoire.
https://www.implications-philosophiques.org/appel-a-contributions-dossier-le-virtuel-et-ses-avatars/
https://www.telecom-paris-alumni.fr/fr/revue/numeros/europe-et-innovation/3579
D’aucuns y verront pur fanatisme d’illuminés scientistes au service d’un libéralisme des plus décomplexé, là où d’autres crieront au génie de chercheurs qui osent tenter de transcender les limites mêmes de la nature humaine. Pour se faire son propre avis sur la question et s’initier aux préceptes transhumanistes, encore faut-il revenir quelques années en arrière pour comprendre comment un tel mouvement a pu voir le jour et dans quelle mesure il y a lieu de croire ou de rejeter ses idéaux. C'est ici l'enjeu de cet article à destination du grand public.
This work presents the link between artificial intelligence (AI) and hermeneutics through the common interest they have about the study of language and the interpretation of texts. Also, it aims for questioning the level of understanding that a machine has about the meaning of words and propositions of a language. By presenting the computational hermeneutics model, the interpretation of digital texts, and its techniques, we will observe an analogy between the traditional hermeneutic circle of understanding-explaining in philosophy and philology, with the informatics process of bootstrapping. We will see that the traditional hermeneutic circle is renewed into a human-machine collaboration defined as a “hermeneutic network”: here, the machine produces a grammatical explanation of the text, and humans (philosophers, experts, documentalists, etc.) interpret the results. There is a virtuous circle: humans obtain a clarification of the meaning of the text, and the machines are learning from the data that humans provide them. We focus on a historical approach of the subject in two parts: a first starting from the birth of AI in 1930-1950, with the critics it has faced in 1960-1980; a second presenting the emergence of computational hermeneutics models from 1985 to 2018. At the end of this work, we will present the computer ontologies: AIs able to provide a semantic representation of the content of a text usable in order to apply the hermeneutic network. The challenge will be to show how the principles of traditional hermeneutics allow an approach to AI that takes into account the philosophical criticism that it has encountered throughout its history.
Résumé :
Ce mémoire présente le lien entre l'intelligence artificielle (IA) et l'herméneutique à travers l'intérêt commun que ces disciplines portent à l'étude du langage et à l'interprétation des textes. Aussi, il vise à interroger le niveau de compréhension qu'une machine a du sens des mots et des propositions d'un langage. En présentant le modèle d'herméneutique computationnelle, l'interprétation des textes numériques et ses techniques, nous observerons une analogie entre le cercle herméneutique traditionnel de la compréhension-explication en philosophie et en philologie, avec le processus informatique de “bootstrapping”. Nous verrons que le cercle herméneutique traditionnel se renouvelle en une collaboration humain-machine définie comme un « réseau herméneutique » : ici, la machine produit une explication grammaticale du texte, et les humains (philosophes, experts, documentalistes, etc.) interprètent le résultat. Il y a un cercle vertueux : les humains obtiennent une clarification du sens du texte, et les machines apprennent des données que les humains leur fournissent. Nous nous concentrons sur une approche historique du sujet en deux parties : une première à partir de la naissance de l'IA en 1930-1950, avec les critiques auxquelles elle a été confrontée en 1960-1980 ; une seconde présentant l’apparition des modèles d'herméneutique computationnelle de 1985 à 2018. À la fin de ce travail nous présenterons les ontologies informatiques : des IAs capables de fournir une représentation sémantique du contenu d'un texte, utilisable pour appliquer le réseau herméneutique. L’enjeu sera de montrer en quoi les principes de l’herméneutique traditionnelle permettent une approche de l’IA prenant en compte les critiques philosophiques que celle-ci a pu rencontrer à travers son histoire.