Le allucinazioni dell’intelligenza artificiale? Inevitabili

Come spiega il matematico Wei Xing, i framework di valutazione dell’ #IA — inclusi quelli usati da Google e OpenAI — penalizzano l’incertezza.
Un modello che risponde “non lo so” ottiene lo stesso punteggio di uno che sbaglia del tutto.
Risultato: le intelligenze artificiali imparano che è meglio tirare a indovinare che essere oneste.

https://focustech.it/scienza/la-verita-che-chatgpt-non-puo-dire/

@aitech

  • Elena Brescacin@mastodon.uno
    link
    fedilink
    arrow-up
    1
    ·
    10 days ago

    @francal @aitech allora normale che se hai l’impalcatura a destra, la macchina ti dica che è a sinistra. O viceversa.
    Mai da usare negli spostamenti su strada come ausilio per ciechi, e questi la vogliono mettere per rispondere a questioni mediche, legali, farla guidare mezzi di trasporto “mainstream”… in troppi settori ci si sta fidando per entusiasmo e marketing senza guardare le conseguenze. Come uno che si mette i coltelli al posto del materasso. Sono utili entrambi, ma per fini diversi!