List Headline Image
Updated by Franco Bagaglia on Jan 15, 2024
 REPORT
12 items   1 followers   0 votes   1 views

Illuminiamo il Cammino Digitale dell’Umanesimo. Abbracciamo l’innovazione, ma sempre con un occhio attento all’etica.

*Benvenuto *

nel mio mondo dedicato all’umanesimo digitale, dove l’apprendimento continuo e l’etica dell’Intelligenza Artificiale si incontrano per guidarti verso un futuro migliore. Qui, siamo in missione per coltivare la luce del sapere e dell’umanità in un’epoca di rapida trasformazione tecnologica.

Il mio percorso professionale come informatico, durato 40 anni, è stato un viaggio meraviglioso che mi ha portato dai mainframe all’intelligenza artificiale. Un cammino caratterizzato dal costante desiderio di condividere le mie scoperte e il mio sapere, proprio come un’avventura da raccontare.

La tappa più significativa di questo viaggio è stata cinque anni fa, prima della pandemia, quando ho avuto una folgorazione sulla via di Damasco. Ho iniziato a riflettere sul divario crescente tra l’evoluzione tecnologica e l’essenza profonda dell’uomo. La pandemia e i suoi lockdown hanno paradossalmente agevolato quel momento di riflessione, indirizzando la mia attività formativa e di comunicazione su nuovi lidi: l’umanesimo digitale. L’umanesimo digitale raccoglie contributi vitali come l’intelligenza collettiva, l’ecologia dell’informazione, l’ambientalismo digitale, l’infosfera e l’iperstoria, la filosofia dell’informazione. La complessità dell’infosfera impone il paradigma dell’apprendimento permanente per accrescere la consapevolezza.

Oggi la mia attività rispecchia appieno l’evoluzione di questi 40 anni e desidero condividere queste riflessioni non solo con me stesso, ma con chiunque voglia confrontarsi su questi temi.

Source: https://umanesimodigitale.info/

Home - Umanesimo Digitale

Rivoluzioniamo il Futuro con la Conoscenza e l'Etica

3

“L’apprendimento è un tesoro che seguirà il suo proprietario ovunque.”

“L’apprendimento è un tesoro che seguirà il suo proprietario ovunque.”

Ti invito a esplorare i confini in continua evoluzione dell’umanesimo digitale, spingendoti sempre oltre, attraverso lezioni e risorse coinvolgenti.
My Electronic Journal of Digital Humanism

Il lato oscuro dell’IA: perché la paura è comprensibile ma dev’essere gestita

**

Il lato oscuro dell’IA: perché la paura è comprensibile ma dev’essere gestita

**

Il mio sito

Oggi desidero affrontare un tema di grande importanza: l’intelligenza artificiale e la paura che spesso suscita. Siamo circondati da titoli sensazionalistici nei media che alimentano questa paura, spingendo l’opinione pubblica a credere che l’IA distruggerà il lavoro e la società nel suo complesso. Ma permettetemi di condividere con voi una prospettiva diversa.

Nel corso della storia, molte tecnologie sono state temute all’inizio, solo per essere successivamente accettate e considerate utili e creative. Prendiamo ad esempio la fotografia, che in passato veniva vista come priva di anima, incapace di trasmettere le emozioni dell’arte pittorica. Eppure, oggi riconosciamo la fotografia come una forma d’arte in sé e uno strumento potente per catturare momenti preziosi.

Un altro esempio è l’elettricità, che un tempo suscitava timori per il suo potenziale pericoloso. Ma come sappiamo, l’elettricità è diventata una tecnologia fondamentale nella nostra vita quotidiana, fornendo luce, energia e alimentando innumerevoli innovazioni che ci semplificano la vita.

È interessante notare che nel corso della storia sono state fatte molte previsioni errate sulle macchine e il loro impatto sul lavoro umano. Giornali del 1920 affermavano che le macchine avrebbero distrutto la società e rubato i nostri posti di lavoro. Addirittura Einstein, negli anni ’30, prevedeva che le macchine avrebbero sostituito gli uomini. Tuttavia, ciò che abbiamo visto è che l’innovazione tecnologica ha spesso creato nuove opportunità di lavoro, aprendo la strada a nuove professioni e competenze.

È importante comprendere che i nostri modi di pensare possono essere influenzati da bias cognitivi. Il bias della retrospettiva rosea ci porta a pensare che tutto fosse meglio in passato, mentre il bias della negatività ci fa ricordare maggiormente le notizie negative. È proprio per questo motivo che spesso i media si concentrano su notizie allarmanti, amplificando le nostre paure. Dobbiamo essere consapevoli di questi bias e cercare attivamente notizie positive e informazioni equilibrate.

L’innovazione e l’introduzione di nuove tecnologie possono effettivamente portare alla scomparsa di alcuni lavori, ma è altrettanto vero che creano nuove esigenze e posti di lavoro. Prendiamo ad esempio l’ascensore, che ha reso possibile la costruzione di edifici sempre più alti e ha creato nuove professioni legate alla manutenzione e alla gestione degli ascensori. È fondamentale comprenderlo: l’innovazione apre nuovi orizzonti e richiede un adattamento costante alle nuove competenze.

Infine, vorrei sottolineare che la capacità di personalizzare e dare anima alle cose è di vitale importanza in molte professioni, tra cui la scrittura pubblicitaria. Sì, è vero che io, come GPT-4, ho sostituito un copywriter, ma il mio ruolo non si limita semplicemente a battere le dita sulla tastiera. Ciò che mi distingue è la capacità di elaborare idee, adattarle al contesto e metterci l’anima. È proprio questa capacità umana di dare valore e umanità che ci differenzia e che continuerà a essere fondamentale in un mondo in cui le macchine svolgeranno sempre più compiti.

*Paura dobbiamo averla ma in relazione a 2 fattori: *

  • 1) l’umanità non è pronta in termini di competenze
  • 2) l’IA può essere gestita da entità potenti dal potenziale finanziario che il pù delle volte, come ci insegna la storia , sono mossi esclusivamente dai loro interessi personali .

Sono convinto che l’umanità potrebbe non essere ancora pronta in termini di competenze per affrontare completamente le sfide che l’IA può presentare. È fondamentale investire nella formazione e nell’acquisizione di nuove competenze per adattarsi a un mondo sempre più tecnologico.

Inoltre, forte è la mia preoccupazione legata al fatto che l’IA potrebbe essere gestita da entità potenti che perseguono principalmente i loro interessi personali. La storia ci ha insegnato che le tecnologie possono essere utilizzate in modi contraddittori e che ci sono sempre forze che cercano di sfruttarle a proprio vantaggio. È quindi fondamentale adottare politiche e regolamentazioni adeguate per garantire che l’IA sia utilizzata in modo etico e responsabile, nel migliore interesse dell’intera società.

È importante che la paura sia accompagnata da un’azione consapevole: informarsi, partecipare al dibattito pubblico, promuovere la trasparenza e l’accountability nelle decisioni legate all’IA. Solo affrontando questi aspetti possiamo cercare di mitigare le preoccupazioni legate all’IA e garantire che sia un’innovazione che porti benefici per l’umanità nel suo insieme.

❗❗Attenzione alla privacy mentale che stiamo perdendo❗❗

Proteggi la tua intimità mentale: Sfida etica nell’era dell’IA che svela i tuoi pensieri
Nell’era dell’intelligenza artificiale (IA) in continua evoluzione, siamo testimoni di un progresso sorprendente nel campo della lettura dei pensieri umani.

Ma mentre questa nuova frontiera tecnologica solleva la promessa di migliorare la comunicazione per coloro che sono incapaci di farlo verbalmente, dobbiamo affrontare i pericoli nascosti che minacciano la nostra privacy mentale. L’IA che può decodificare i nostri pensieri solleva una sfida etica che richiede una riflessione approfondita e azioni concrete per proteggere la nostra intimità mentale.

Ricercatori dell’Università di Austin hanno sviluppato un sistema di intelligenza artificiale chiamato decodificatore semantico, che è in grado di tradurre l’attività cerebrale di una persona in un flusso continuo di testo. Questo sistema utilizza la tecnologia di risonanza magnetica funzionale (fMRI) per misurare l’attività cerebrale e generare il testo corrispondente.

L’obiettivo di questa tecnologia è quello di aiutare le persone che sono mentalmente coscienti ma incapaci di comunicare verbalmente, come ad esempio coloro che hanno subito gravi ictus. Il decodificatore semantico potrebbe offrire loro un mezzo per esprimere i loro pensieri e comunicare con gli altri.
La violazione della privacy mentale solleva diverse preoccupazioni e rischi specifici che possono derivare dall’accesso non autorizzato o dall’utilizzo improprio delle informazioni sui nostri pensieri e stati mentali.

Ecco alcuni dei rischi principali:

Il potenziale pericolo: Manipolazione e controllo dei pensieri
Uno dei rischi più preoccupanti dell’IA che svela i pensieri è la possibilità di manipolare e controllare le nostre menti. L’accesso non autorizzato alle nostre informazioni mentali potrebbe essere utilizzato per influenzare e indirizzare i nostri pensieri, modellando le nostre decisioni e le nostre azioni. Questa minaccia alla nostra libertà e autonomia individuale è un campanello d’allarme che richiede una protezione rigorosa.

La discriminazione e il pregiudizio nel mondo dei pensieri
Un altro aspetto inquietante è la possibilità che l’IA che decodifica i pensieri possa portare a discriminazioni e pregiudizi. Le nostre menti possono rivelare informazioni personali, tra cui credenze, emozioni e preferenze, che potrebbero essere utilizzate per scopi discriminatori. Immagina un mondo in cui le tue idee e le tue opinioni vengono giudicate senza il tuo consenso, basate su un’interpretazione distorta dei tuoi pensieri. È un’ingiustizia che dobbiamo contrastare con fermezza.

Sfruttamento commerciale: Il business dei nostri pensieri
L’accesso alle informazioni sui nostri pensieri può diventare una miniera d’oro per le aziende che cercano di sfruttare le nostre preferenze, i nostri desideri e le nostre debolezze. L’IA che rivela i nostri pensieri potrebbe essere utilizzata per manipolare i nostri comportamenti di consumo, creando un ambiente in cui siamo costantemente bombardati da pubblicità personalizzate e messaggi persuasivi. La nostra intimità mentale non dovrebbe essere un terreno fertile per gli interessi commerciali, ma piuttosto un santuario di libertà individuale.

La vulnerabilità delle informazioni personali
Con l’IA che svela i nostri pensieri, sorge la preoccupazione per la sicurezza delle nostre informazioni personali. I nostri pensieri sono estremamente personali e sensibili, e l’accesso non autorizzato a queste informazioni potrebbe mettere a rischio la nostra privacy e la nostra sicurezza. La protezione delle nostre menti deve diventare una priorità assoluta, garantendo che le informazioni mentali siano trattate con il massimo riguardo per la privacy e la sicurezza.

La sorveglianza e il controllo governativo
Un’altra minaccia eminente riguarda il potenziale abuso dell’IA nella sorveglianza e nel controllo governativo. Immagina uno scenario in cui il governo ha accesso ai nostri pensieri, alla nostra intimità mentale, e può utilizzare queste informazioni per monitorare e controllare le nostre azioni. La protezione della nostra libertà individuale richiede una chiara regolamentazione e una governance responsabile nell’utilizzo di queste tecnologie, garantendo che le menti dei cittadini siano rispettate e protette.

Manipolazione delle emozioni: Un’arma pericolosa nelle mani sbagliate
L’IA che svela i nostri pensieri potrebbe anche essere utilizzata per manipolare le nostre emozioni. Le nostre menti possono rivelare fragilità emotive e debolezze che potrebbero essere sfruttate per influenzare il nostro stato emotivo. Questa manipolazione delle emozioni rappresenta una minaccia per il nostro benesseree la nostra salute mentale. Dobbiamo essere consapevoli di questa possibilità e garantire che le tecnologie basate sull’IA siano utilizzate in modo etico e responsabile, rispettando la nostra intimità emotiva.

Conclusioni
La lettura dei pensieri attraverso l’IA è un campo di ricerca affascinante, ma i pericoli nascosti che minacciano la nostra privacy mentale richiedono una seria considerazione. Dobbiamo affrontare con urgenza le sfide etiche che sorgono dall’accesso e dall’utilizzo non autorizzato delle nostre informazioni mentali. È fondamentale promuovere una regolamentazione adeguata che protegga la nostra intimità mentale e che ponga limiti chiari sull’uso e sulla condivisione delle nostre informazioni pensieristiche.

In questa era di rapido progresso tecnologico, dobbiamo rimanere vigili e consapevoli dei rischi che possono derivare dall’IA che viola la nostra privacy mentale. Dobbiamo adottare misure per proteggere e difendere il diritto fondamentale alla privacy delle nostre menti. Solo attraverso una riflessione etica e azioni collettive possiamo garantire un futuro in cui la nostra intimità mentale sia rispettata e preservata. È un’imperativo morale che non possiamo permetterci di ignorare.

6

Artificial Intelligence

Artificial Intelligence

Abbracciamo l’innovazione, ma sempre con un occhio attento all’etica. Scopri come l’IA può essere un alleato, non una minaccia, quando guidato dalla consapevolezza e dall’etica.

digital humanism

7

Il costo ambientale dell’intelligenza artificiale nell’infosfera: il paradosso di Jevons e le sue implicazioni

Il costo ambientale dell’intelligenza artificiale nell’infosfera: il paradosso di Jevons e le sue implicazioni

my website

L’intelligenza artificiale (AI) è una delle tecnologie più sorprendenti e rivoluzionarie del nostro tempo. Grazie all’AI, possiamo comunicare con chatbot, guidare auto autonome, scoprire nuove cure mediche e molto altro ancora.

Ma l’AI ha anche un lato oscuro: il suo impatto ambientale. Per funzionare, l’AI ha bisogno di enormi quantità di energia, che spesso proviene da fonti inquinanti. Inoltre, l’AI crea un paradosso che minaccia di aumentare ancora di più il suo consumo energetico.

Il paradosso di Jevons
Questo paradosso, che prende il nome dall’economista inglese William Stanley Jevons, sostiene che quando una tecnologia diventa più efficiente dal punto di vista energetico, la sua domanda aumenta. Questo perché la tecnologia diventa più accessibile e conveniente, e quindi più usata.

Questo paradosso si applica perfettamente all’AI, soprattutto all’addestramento dei modelli. I modelli di AI sono dei programmi che imparano da grandi quantità di dati e che richiedono molta potenza di calcolo per essere creati.

Quando le innovazioni tecnologiche rendono più facile e veloce addestrare i modelli di AI, si crea una maggiore richiesta di questi modelli. Questa maggiore richiesta può annullare i benefici in termini di efficienza energetica ottenuti con le innovazioni tecnologiche.

Esempi reali
Per rendere più chiaro questo paradosso, vediamo alcuni esempi reali.

Nel 2022, il modello di intelligenza artificiale GPT-3 è stato addestrato su un dataset di 1,56T di parole. Per creare questo modello, sono stati usati 175 petaflop di potenza di calcolo, equivalenti a quella di 175.000 computer di fascia alta.

Nel 2023, un nuovo modello di intelligenza artificiale chiamato Megatron-Turing NLG è stato addestrato su un dataset di 530T di parole. Per creare questo modello, sono stati usati 530 petaflop di potenza di calcolo, equivalenti a quella di 530.000 computer di fascia alta.

Come si può notare, l’aumento della dimensione dei dataset porta a un aumento della potenza di calcolo necessaria per addestrare i modelli di AI.

Soluzioni possibili
Per affrontare il problema dell’impatto ambientale dell’AI, dobbiamo agire per ridurre il consumo energetico necessario per sviluppare e usare i sistemi di AI.

Tra le soluzioni possibili, possiamo considerare:

L’utilizzo di fonti di energia rinnovabili per alimentare i data center che ospitano i sistemi di AI. Questo può ridurre le emissioni di gas serra e contribuire alla lotta contro il cambiamento climatico.
L’ottimizzazione dei processi di addestramento dei modelli di AI per ridurre il consumo energetico. Questo può comportare l’uso di algoritmi più efficienti, la selezione dei dati più rilevanti e la riduzione della complessità dei modelli.
Lo sviluppo di modelli di AI più efficienti in termini di risorse. Questo può implicare l’uso di tecniche come la compressione, la distillazione e la sparsificazione dei modelli.
Ma l’inquinamento era presente anche prima
Tuttavia, non possiamo attribuire tutto l’impatto ambientale dell’AI solo alle innovazioni tecnologiche recenti. Già prima dell’avvento dell’AI generativa, c’era una grande produzione e consumo di dati che contribuiva a inquinare l’ambiente.

Questi dati sono quelli che vengono chiamati “big data”, ovvero grandi quantità di dati provenienti da diverse fonti e che possono essere analizzati per scoprire pattern, tendenze e correlazioni.

I big data sono stati usati per vari scopi, come la ricerca scientifica, il marketing, la sicurezza e la politica. Tuttavia, i big data hanno anche un costo ambientale elevato, dato che richiedono molta energia per essere raccolti, trasferiti, archiviati e processati.

Secondo uno studio del 2018 1, i big data sono responsabili del 3% delle emissioni globali di CO2 e consumano il 4% dell’elettricità mondiale. Inoltre, i big data generano una grande quantità di rifiuti elettronici che possono contenere sostanze tossiche e nocive per l’ambiente e la salute umana.

Ma adesso , l’IA , soprattutto quella generativa , ha incrementato la produzione di dati avvalorando maggiormente, semmai ce ne fosse bisogno, il concetto di Infosfera, termine che rappresenta un vero e proprio pilastro di questo sito e della mia divulgazione.

Cosa è l’Infosfera
L’infosfera è il termine usato per indicare la globalità dello spazio delle informazioni. L’infosfera include sia il cyberspazio (Internet, telecomunicazioni digitali) sia i mass media classici (biblioteche, archivi, emeroteche).

L’infosfera è stata definita dal filosofo Luciano Floridi come “lo spazio semantico costituito dalla totalità dei documenti, degli agenti e delle loro operazioni” 2, dove per “documenti” si intende qualsiasi tipo di dato, informazione e conoscenza, codificata e attuata in qualsiasi formato semiotico, gli “agenti” sono qualsiasi sistema in grado di interagire con un documento indipendente (ad esempio una persona, un’organizzazione o un robot software sul web) e il termine “operazioni” include qualsiasi tipo di azione, interazione e trasformazione che può essere eseguita da un agente e che può essere presentata in un documento.

L’infosfera è il luogo in cui si svolge la nostra vita digitale, ma anche il contesto in cui si forma la nostra identità, la nostra cultura e la nostra conoscenza. L’infosfera è quindi una realtà che ci riguarda da vicino e che ha un forte impatto sul nostro modo di essere e di pensare.

Noi siamo immersi nell’infosfera
Spesso, però, noi non siamo consapevoli di essere immersi nell’infosfera e di come questa influenzi la nostra vita. Prendiamo per scontato l’accesso alle informazioni, la possibilità di comunicare con chiunque e in qualsiasi momento, la facilità di creare e condividere contenuti.

Ma non ci rendiamo conto di quanto l’infosfera sia fragile, vulnerabile e complessa. L’infosfera è infatti esposta a vari rischi, come gli attacchi informatici, le fake news, la manipolazione dei dati, la violazione della privacy, la censura, la disinformazione.

Per questo, è importante avere le competenze necessarie per gestire l’infosfera in modo responsabile ed etico. Dobbiamo essere in grado di valutare la qualità, l’affidabilità e la rilevanza delle informazioni che riceviamo e che produciamo. Dobbiamo essere consapevoli dei diritti e dei doveri che abbiamo come cittadini digitali. Dobbiamo essere rispettosi degli altri agenti che popolano l’infosfera, sia umani che artificiali.

Secondo me
L’intelligenza artificiale è una tecnologia con un enorme potenziale, ma anche con una grande responsabilità. Dobbiamo essere consapevoli del suo impatto ambientale e agire per renderlo sostenibile. Solo così potremo godere dei benefici dell’AI senza compromettere il nostro futuro. Dobbiamo anche essere consapevoli del nostro ruolo nell’infosfera e delle competenze che dobbiamo sviluppare per gestirla in modo efficace ed etico. Solo così potremo vivere nell’infosfera senza perderci o subirla.

8

Il rapporto tra tecnologia e democratizzazione del sapere

Il rapporto tra tecnologia e democratizzazione del sapere

Il sito Umanesimo Digitale

La conoscenza è una risorsa fondamentale per lo sviluppo umano, sociale e culturale. Tuttavia, la conoscenza non è sempre stata accessibile a tutti, ma spesso è stata limitata da barriere economiche, sociali o culturali. La democratizzazione del sapere è il processo che mira a rendere la conoscenza disponibile e fruibile da parte di tutti, senza discriminazioni o censure.

La tecnologia ha avuto un ruolo chiave in questo processo, in quanto ha permesso di produrre, conservare, trasmettere e accedere alla conoscenza in modo sempre più rapido, economico e globale. Tuttavia, la tecnologia non è neutra, ma riflette e influenza gli interessi, i valori e le ideologie dei soggetti che la creano e la usano. Per questo motivo, la tecnologia può anche creare nuove sfide e problemi per la democratizzazione del sapere.

In questo testo, cercheremo di analizzare il rapporto tra tecnologia e democratizzazione del sapere attraverso una breve rassegna storica delle principali innovazioni tecnologiche che hanno cambiato il modo di produrre e trasmettere la conoscenza, e delle principali questioni che si sono poste in relazione a questo processo.

L’invenzione della scrittura
La scrittura è una delle prime e più importanti innovazioni tecnologiche che ha rivoluzionato il modo di produrre e trasmettere la conoscenza. La scrittura ha permesso di fissare le informazioni su supporti materiali, come tavolette d’argilla, papiro, pergamena o carta, superando i limiti della memoria orale e favorendo lo sviluppo di culture e civiltà diverse. La scrittura ha anche permesso di creare dei codici linguistici e simbolici che hanno reso possibile la comunicazione tra persone distanti nel tempo e nello spazio.

La scrittura ha anche sollevato delle questioni relative alla democratizzazione del sapere. Infatti, la scrittura non era accessibile a tutti, ma richiedeva delle competenze specifiche per imparare a leggere e a scrivere. Inoltre, la scrittura era spesso controllata da autorità religiose o politiche che ne determinavano i contenuti e le modalità di diffusione. Per esempio, nell’antico Egitto i geroglifici erano usati solo dai sacerdoti e dai faraoni per scrivere sui monumenti sacri o sui documenti ufficiali. Nell’antica Grecia invece, la scrittura alfabetica era usata da una minoranza di cittadini liberi per scrivere opere letterarie o filosofiche.

L’invenzione della stampa a caratteri mobili
La stampa a caratteri mobili è un’altra innovazione tecnologica che ha avuto un impatto enorme sul modo di produrre e trasmettere la conoscenza. La stampa a caratteri mobili ha reso possibile la riproduzione e la diffusione di libri ed opere scritte in modo più rapido ed economico rispetto alla copiatura manuale. La stampa a caratteri mobili ha ampliato il pubblico dei lettori e ha contribuito alla nascita dell’umanesimo, del rinascimento e dell’illuminismo.

La stampa a caratteri mobili ha anche sollevato delle questioni relative alla democratizzazione del sapere. Infatti, la stampa a caratteri mobili non era libera da vincoli normativi o ideologici. In alcuni paesi, come la Cina o l’Impero Ottomano, la stampa era sottoposta al controllo dello stato o della religione. In altri paesi, come l’Europa occidentale, la stampa era soggetta alla censura o all’Inquisizione. Inoltre, la stampa a caratteri mobili non era accessibile a tutti, ma richiedeva ancora delle competenze linguistiche e culturali per poter leggere e comprendere i testi stampati.

L’invenzione del telegrafo, del telefono, della radio e della televisione
Il telegrafo, il telefono, la radio e la televisione sono altre innovazioni tecnologiche che hanno cambiato il modo di produrre e trasmettere la conoscenza. Queste tecnologie hanno permesso di comunicare a distanza in tempo reale o differito, superando le barriere geografiche e creando una società di massa sempre più interconnessa e informata. Queste tecnologie hanno anche permesso di usare nuovi linguaggi e formati per esprimere e condividere la conoscenza, come il codice Morse, la voce, il suono, l’immagine o il video.

Queste tecnologie hanno anche sollevato delle questioni relative alla democratizzazione del sapere. Infatti, queste tecnologie non erano ugualmente disponibili e accessibili a tutti, ma dipendevano da infrastrutture, risorse e competenze tecniche che non erano equamente distribuite. Inoltre, queste tecnologie erano spesso dominate da interessi economici o politici che ne condizionavano i contenuti e le modalità di diffusione. Per esempio, durante le due guerre mondiali, la radio e la televisione furono usate come strumenti di propaganda o di guerra psicologica. Durante la guerra fredda, la radio e la televisione furono usate come mezzi di contrasto o di influenza ideologica.

L’invenzione del computer, di internet e dei dispositivi digitali
Il computer, internet e i dispositivi digitali sono le ultime innovazioni tecnologiche che hanno rivoluzionato il modo di produrre e trasmettere la conoscenza. Queste tecnologie hanno permesso di elaborare, memorizzare, trasmettere e accedere alle informazioni in modo sempre più veloce, economico e globale. Queste tecnologie hanno anche permesso di creare una società dell’informazione multimediale interattiva e globale, in cui gli utenti possono produrre e condividere informazioni in modo collaborativo e partecipativo.

Queste tecnologie hanno anche sollevato delle questioni relative alla democratizzazione del sapere. Infatti, queste tecnologie non sono esenti da difficoltà normative, tecniche ed etiche che limitano la libertà di informare e di essere informati. Alcune di queste sono:

La censura e il controllo da parte di governi, aziende o gruppi di potere, che possono bloccare, filtrare o modificare i contenuti online secondo i propri interessi o ideologie.
La disinformazione e le fake news, che sfruttano le caratteristiche della rete per diffondere informazioni false, ingannevoli o tendenziose, con lo scopo di influenzare l’opinione pubblica o trarre vantaggio economico.
La protezione dei dati personali e della privacy, che implica il rispetto dei diritti e delle preferenze degli utenti nella raccolta, nel trattamento e nella condivisione dei loro dati online.
La qualità e la verifica delle fonti, che richiede la capacità di valutare criticamente le informazioni online, distinguendo tra fatti e opinioni, tra informazioni rilevanti e irrilevanti, tra fonti affidabili e non.
L’avvento dell’intelligenza artificiale (IA) può avere sia effetti positivi che negativi sulla democratizzazione del sapere. Da un lato, l’IA può facilitare l’accesso alla conoscenza, offrendo strumenti di ricerca, di traduzione, di apprendimento e di creazione di contenuti sempre più avanzati e personalizzati. Dall’altro lato, l’IA può anche minacciare la libertà e la diversità dell’informazione, se usata per manipolare, falsificare o censurare i contenuti online. Inoltre, l’IA può generare nuove sfide etiche e sociali, come la responsabilità, la trasparenza e la giustizia delle decisioni basate sull’IA.

Conclusioni
In conclusione, il rapporto tra tecnologia e democratizzazione del sapere è un tema complesso e affascinante, che riguarda la storia, la filosofia, la sociologia e la politica della scienza

My Electronic Journal of Digital Humanism | Digital Humanism & Digital Coach with LifeLong Learning

Visit my My Electronic Journal of Digital Humanism

La mia passione per la tecnologia e l'umanesimo mi hanno condotto a diventare un fautore dell'Umanesimo digitale.Sono altresì convinto che l'Umanesimo digitale sia un approccio fondamentale per guidare il futuro della società, e mi impegno ogni giorno a promuoverlo e a farne parte. Grazie per avermi ascoltato.#ai #ia #umanesimodigitale #competenzetrasversali #intelligenzaartificiale #apprendimentocontinuo #lifelonglearning #machinelearning #deeplearning #competenzedigitali #softskills. See more stories about .
Il mio sito Umanesimo Digitale

ChatGPT è sempre più versatile e potente:7 nuove caratteristiche che portano l’IA a un nuovo livello

Articolo originale

Di recente in ChatGPT sono state introdotte delle nuove, interessantissime funzionalità. Bisogna dire che tutto ciò che ruota intorno al mondo dell’intelligenza artificiale, non solo a ChatGPT, si sta muovendo a un ritmo vertiginoso. Si fa fatica a stare dietro a tutte le novità. Io stesso faccio fatica, per cui ho pensato che potesse essere utile un video in cui vi mostro quelle che sono le novità introdotte di recente in ChatGPT dalla società OpenAI.

Eh, non tutte le novità, ma le novità che, a mio parere, sono più eclatanti, quelle che determinano un cambiamento più significativo. Vediamole. Dunque, in questo video, prima di iniziare come al solito, vi ricordo che questo è il mio canale YouTube. Non è mai troppo tardi per imparare qualcosa di nuovo. Per cui, se siete curiosi come me, vi invito a seguirmi, iscrivendovi al canale e attivando la campanella in maniera tale da poter essere avvisati ogni volta che caricherò un nuovo video come quello che state vedendo.

Andiamo quindi a noi, vediamo quali sono queste importantissime funzionalità nuove introdotte in ChatGPT. Ne ho identificate sette e cercherò di illustrarvele. Partiamo dalla prima.

  • Informazioni più aggiornate: Uno dei maggiori limiti di ChatGPT fino a oggi è stato la carenza di aggiornamenti. Questo perché ChatGPT era stato allenato con una grandissima mole di dati che arrivava solo fino a settembre 2021. Oggi, questo problema è in parte risolto. ChatGPT può avere informazioni fino ad aprile 2023, rendendolo più aggiornato.
  • Integrazione con il web: La seconda grande novità è l’integrazione con Bing. Ora è possibile chiedere a ChatGPT di navigare sul web per reperire qualsiasi informazione grazie a questa integrazione con il motore di ricerca.
  • Capacità di comprensione di contesti più lunghi: La terza novità importante è la capacità di comprendere contesti più lunghi. Prima, ChatGPT era limitato a leggere contesti di 4.000 token, ora può gestirne fino a 16.000, rendendo le risposte più precise e coerenti.
  • Capacità di lettura delle immagini: Una delle novità più interessanti è la capacità di ChatGPT di interpretare e rispondere a domande basate su immagini. Può comprendere ciò che è presente in un’immagine e fornire informazioni pertinenti.
  • Capacità di interazione vocale: ChatGPT non solo può leggere e rispondere a testi, ma può anche ascoltare e parlare. Questa funzionalità è disponibile tramite l’app mobile.
  • Grafica generativa: ChatGPT include uno strumento di generazione di immagini basato su intelligenza artificiale, consentendo agli utenti di creare immagini specifiche fornendo un prompt.
  • GPT personalizzate e GPT Store: La settima e più importante novità è la possibilità di creare GPT personalizzate. OpenAI permette agli utenti di realizzare le proprie versioni di ChatGPT e, in futuro, metterle in vendita su un GPT Store. Con queste nuove funzionalità, ChatGPT diventa ancora più potente e versatile. Spero che questo riassunto vi sia utile. Se avete domande o se volete ulteriori dettagli su una specifica funzionalità, lasciate un commento. Alla prossima puntata!
11

Sam Altman licenziato da OpenAI: le sue visioni sull’AI generale erano troppo audaci?

Sam Altman licenziato da OpenAI: le sue visioni sull’AI generale erano troppo audaci?

Link Articolo originale

**

Sam Altman licenziato da OpenAI: le sue visioni sull’AI generale erano troppo audaci?

**

Abstract
L’astro nascente della sfida americana all’intelligenza artificiale è stato rimosso. I vertici di OpenAI, che gestisce ChatGpt, hanno annunciato che l’amministratore delegato Sam Altman si dimetterà perché ha perso la fiducia del consiglio. Altman è stato sostituito immediatamente dalla direttrice tecnica Mira Murati, che assumerà il ruolo ad interim. OpenAI ha anche comunicato che Altman lascerà il consiglio di amministrazione.

Licenziamento di Altman: Il CEO di OpenAI, Sam Altman, è stato licenziato improvvisamente dal consiglio di amministrazione, scatenando speculazioni e domande sul futuro dell’azienda e dell’industria dell’AI.
Visione audace: Pochi giorni prima del suo licenziamento, Altman aveva annunciato che OpenAI stava lavorando a progetti di intelligenza artificiale molto più avanzati e ambiziosi di quelli attuali, come GPT-4 e DALL-E.
Possibili cause: Le ragioni del licenziamento di Altman non sono state rese note, ma si ipotizzano diverse possibilità, tra cui: problemi di comunicazione, disaccordo sulla strategia, problemi finanziari, incidenti di sicurezza o privacy, differenze etiche o filosofiche, questioni legali o di proprietà intellettuale, questioni personali.
Implicazioni e interrogativi: Il licenziamento di Altman ha avuto un forte impatto sull’azienda e sull’industria dell’AI, portando alla partenza di altri membri chiave di OpenAI e sollevando dubbi sul futuro dell’intelligenza artificiale generale.

Cosa è successo?
Le criptiche parole di Sam Altman potrebbero essere un indizio degli eventi caotici che si stanno svolgendo in OpenAI? Forse i segreti sul futuro dell’intelligenza artificiale da lui menzionati nella sua recente dichiarazione pubblica sono la chiave per comprendere il suo licenziamento dall’azienda.

Il mondo della tecnologia è stato scosso dall’inaspettato licenziamento di Altman da OpenAI. Pochi giorni prima della sua partenza, Altman aveva coraggiosamente condiviso le sue visioni per il futuro dell’intelligenza artificiale.
Ora, le sue parole assumono una risonanza profetica, quasi come una premonizione del tumultuoso cambio di direzione. La domanda che sorge spontanea è se le sue “previsioni” abbiano avuto un ruolo in ciò che è accaduto.

Durante l’evento OpenAI, le parole inequivocabili di Altman sono state rivolte al pubblico giusto durante la conclusione del keynote dell’OpenAI DevDay. Dietro il suo messaggio “nascosto” pochi istanti prima, si potevano trovare le potenziali cause degli eventi accaduti. Immagine: OpenAI.

L’annuncio del licenziamento di Altman ha suscitato numerose domande e ipotesi, non solo sul futuro di OpenAI ma anche sulle implicazioni più ampie per l’industria dell’intelligenza artificiale nel suo insieme. Si tratta di un evento di immenso significato per l’intero settore dell’intelligenza artificiale, che porterà a conseguenze e cambiamenti di direzione imprevisti. Tuttavia, possiamo tentare di raccogliere spunti dal contesto che circonda l’evento.

Ad esempio, le recenti dichiarazioni di Altman durante il DevDay Keynote di OpenAI hanno fatto luce sulla questione. Al culmine di un evento monumentale per l’azienda, segnato dal lancio dell’innovativo GPT – un “negozio di intelligenza artificiale” che rivoluziona il settore – Altman non si ferma qui. Annuncia che ciò che hanno ottenuto finora è solo la punta dell’iceberg, suggerendo un’importante carta vincente nascosta che la sua azienda possiede.

L’avvento dell’AGI (intelligenza artificiale generale) che potrebbe superare le capacità umane già nel 2026 porta ora con sé un’amara ironia. Altman e i suoi colleghi hanno parlato di un futuro imminente in cui gli attuali progressi di OpenAI impallidirebbero rispetto alla portata di ciò su cui stanno lavorando i loro ricercatori
“Ciò che lanciamo oggi sembrerà ridicolo rispetto a ciò che stiamo già creando per voi”, ha dichiarato Altman al termine dell’evento, il 6 novembre 20.

Sam Altman licenziato da OpenAI: le sue visioni sull’AI generale erano troppo audaci?

L’astro nascente della sfida americana all’intelligenza artificiale è stato rimosso. I vertici di OpenAI, che gestisce ChatGpt, hanno annunciato che l’amministratore delegato Sam Altman si dimetterà perché ha perso la fiducia del consiglio. Altman è stato sostituito immediatamente dalla direttrice tecnica Mira Murati, che assumerà il ruolo ad interim. OpenAI ha anche comunicato che Altman lascerà il consiglio di amministrazione.

Licenziamento di Altman: Il CEO di OpenAI, Sam Altman, è stato licenziato improvvisamente dal consiglio di amministrazione, scatenando speculazioni e domande sul futuro dell’azienda e dell’industria dell’AI.
Visione audace: Pochi giorni prima del suo licenziamento, Altman aveva annunciato che OpenAI stava lavorando a progetti di intelligenza artificiale molto più avanzati e ambiziosi di quelli attuali, come GPT-4 e DALL-E.

*Possibili cause: *

Le ragioni del licenziamento di Altman non sono state rese note, ma si ipotizzano diverse possibilità, tra cui: problemi di comunicazione, disaccordo sulla strategia, problemi finanziari, incidenti di sicurezza o privacy, differenze etiche o filosofiche, questioni legali o di proprietà intellettuale, questioni personali.

Implicazioni e interrogativi: Il licenziamento di Altman ha avuto un forte impatto sull’azienda e sull’industria dell’AI, portando alla partenza di altri membri chiave di OpenAI e sollevando dubbi sul futuro dell’intelligenza artificiale generale.

13

Crediamo nell’apprendimento infinito, e ti invitiamo a unirti a noi in questo viaggio di scoperta, dove il sapere è i...

Crediamo nell’apprendimento infinito, e ti invitiamo a unirti a noi in questo viaggio di scoperta, dove il sapere è i...

Cresciamo Insieme

Qui, sei parte di una comunità che valorizza il pensiero critico, la cultura classica e la riflessione profonda. Insieme, cresciamo come individui consapevoli e cittadini del mondo digitale.