Please use this identifier to cite or link to this item: http://hdl.handle.net/10077/30323
Title: Ragionamento in condizioni di incertezza
Authors: Benzi, Margherita
Keywords: ReasoningUncertaintyArtificial intelligenceRagionamentoIncertezzaIntelligenza artificiale
Issue Date: 2019
Publisher: EUT Edizioni Università di Trieste
Source: Margherita Benzi, "Ragionamento in condizioni di incertezza", in "APhEx 20", 2019, pp. 35
Journal: APhEx 
Abstract: 
"Uncertainty" has different meanings, depending on scientific contexts. This essay presents different approaches to reasoning with incomplete, vague, or approximate premises, and to inferences where the link between premises and conclusions is weaker than in classical logic. Most of the methods treated here originate, or reached full recognition, in research on artificial intelligence in the 1980s. From the beginning, the debate on uncertain reasoning included contributions from logic and computer science, but also from philosophy, mathematics and psychology, and it provided a useful toolbox for applications in a variety of fields, from legal argumentation to medical diagnosis. In the last decades, the expression "artificial intelligence" became ambiguous, given that it is used, especially in the media, as synonym of Machine Learning or Big Data. Exploring the consequences of the "new" artificial intelligence on the notion of uncertainty is beyond the scope of this essay. Here we focus on "classical" approaches because: a) we do not think that they are obsolete, as they are currently in use; moreover, they can help us to understand, by contrast, the new AI; (b) they helped to clarify, or to see from new perspectives, concepts that previously were often confused with each other – such as vagueness, uncertainty, probability, approximation. From a historical point of view, the effort to clarify uncertain reasoning offers a very interesting example of interdisciplinary debate.

Il termine "incertezza" assume diversi significati a seconda del contesto scientifico in cui ricorre. Questo saggio si concentra sui diversi modi di concepire e formalizzare il ragionamento con premesse incomplete, vaghe approssimative o tali per cui il legame tra premesse e conclusioni è più debole che nella logica classica. La maggior parte dei metodi qui trattati trova origine, o ha raggiunto piena valorizzazione, a partire dalla ricerca degli anni ottanta in intelligenza artificiale. Il dibattito sul ragionamento incerto ha coinvolto sin dagli inizi contributi provenienti non solo dalla logica e dall'informatica, ma anche dalla filosofia, dalla matematica e dalla psicologia, e si è esteso ad altri settori, quali quello dell'argomentazione giuridica o della diagnosi medica, provvedendo una adeguata cassetta degli attrezzi per i diversi contesti di applicazione. Negli ultimi decenni l'espressione "intelligenza artificiale" ha aumentato il proprio carico di ambiguità, dato che viene utilizzata, specialmente dai media, come sinonimo di machine learning, e/o di Big Data. Esplorare le conseguenze della "nuova" IA sulla nozione generale di incertezza richiederebbe un contributo a parte. Se qui ci concentriamo sugli approcci classici è perché: a) non pensiamo che siano obsoleti: di fatto sono tuttora in uso e si rivelano utili anche per capire che cosa sia realmente la 'nuova' IA; b) hanno contribuito a chiarire, o a vedere da nuove prospettive, concetti che in precedenza erano spesso assimilati tra loro - come vaghezza, incertezza, probabilità, imprecisione, approssimazione, default, …, prestandosi a un proficuo scambio di idee tra informatici, logici e filosofi.
Type: Article
URI: http://hdl.handle.net/10077/30323
ISSN: 2036-9972
Appears in Collections:20 APhEx num 20, anno 2019

Files in This Item:
File Description SizeFormat
APhEx_20_2019_Benzi.pdf744.96 kBAdobe PDFThumbnail
View/Open
Show full item record


CORE Recommender

Page view(s)

48
checked on Feb 26, 2021

Download(s) 50

78
checked on Feb 26, 2021

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons