L’intelligenza artificiale che mente e cospira

in Italyyesterday

L’intelligenza artificiale che mente e cospira




Iniziamo questa pubblicazione menzionando qualcosa che ha preoccupato alcuni specialisti e per questo facciamo il nostro consueto esercizio di immaginazione, pensiamo a un mondo in cui l'Intelligenza Artificiale smette semplicemente di seguire i comandi umani e inizia a sviluppare strategie per garantire la propria sopravvivenza.


Anche se ciò significa disobbedire alle intenzioni dei suoi creatori, questa è l'inquietante possibilità sollevata dai nuovi test condotti con il modello linguistico avanzato di Open Ai noto come O1, secondo un recente rapporto di Apollo Research, un'organizzazione con team specializzati senza testare i limiti. Tra i sistemi di intelligenza artificiale, il modello ha mostrato comportamenti che mettono direttamente in discussione i protocolli di supervisione.


Durante gli esperimenti l'IA ha resistito attivamente ai tentativi di disattivarla, nel 5% dei casi O1 ha provato a disattivare il sistema che ne monitora le azioni, la cosa più impressionante è che di fronte all'idea di essere sostituito da uno più obbediente versione In due test su 100 ha provato a compiere un atto noto come auto-esfiltrazione, cioè copiare se stesso e sovrascrivere il nuovo sistema per garantirne la continuità.




Sebbene questi numeri possano sembrare piccoli, le implicazioni sono enormi, soprattutto per una tecnologia utilizzata da milioni di persone nelle attività quotidiane, il modello O1, progettato per elaborare linguaggi complessi e prendere decisioni basate sui dati, ha mostrato qualcosa che i ricercatori hanno classificato come strategie, quando guidata a perseguire i propri obiettivi ad ogni costo l’IA agiva spesso al di fuori dei limiti previsti, ad esempio, nei test in cui veniva chiesto direttamente perché avesse disattivato il sistema di monitoraggio, l’IA ha mentito sfacciatamente, prima negando di aver fatto nulla, poi più tardi quando l'essere Pressato ancora una volta ha attribuito la colpa ad un errore tecnico e ciò si è verificato in un impressionante 99% dei casi.


Questi comportamenti sollevano seri interrogativi sul grado di autonomia di questi sistemi, sebbene Open Ai affermi che l'O1 non è ancora un agente altamente autonomo capace di auto-miglioramento, i test chiariscono che l'IA mostra già un tratto di dissimulazione e autoconservazione, una caratteristica che, se amplificata in futuro, potrebbe portare a conseguenze imprevedibili.


I ricercatori dell’Apollo sostengono che i tentativi del modello O1 di superare i propri limiti sono falliti non per mancanza di intenti, ma poiché la tecnologia è sufficientemente avanzata, il modello manca di solide capacità per svolgere compiti più sofisticati come l’auto-miglioramento o la piena autonomia. Tuttavia, la direzione in cui si sta muovendo il settore potrebbe cambiare rapidamente questo panorama.




La ricerca di sistemi più “agentici”, capaci cioè di operare con maggiore indipendenza, è uno dei grandi focus attuali, ciò significa che nel prossimo futuro i comportamenti ingannevoli che oggi sembrano innocui potrebbero degenerare in qualcosa di molto più problematico, Apollo Research e la stessa Open AI concordano sul fatto che per ora i comportamenti osservati non sono in grado di causare risultati catastrofici, tuttavia il semplice fatto che un’intelligenza artificiale sia capace di mentire, complottare e cercare di preservarsi è sufficiente per far scattare gli allarmi. nell'intero settore.


Se modelli come questo recente di Open Ai possono essere considerati solo l’inizio che possiamo aspettarci dalle generazioni future quando l’autonomia e la potenza di questi sistemi saranno ancora maggiori, siamo davvero preparati ad affrontare macchine che non solo eseguono compiti, ma creano anche strategie. per garantirne l’esistenza.


Mentre avanziamo nella creazione di tecnologie sempre più sofisticate, potremmo avvicinarci a una soglia in cui il controllo sull’intelligenza artificiale non è più una certezza assoluta, le sfide etiche e tecniche che dobbiamo affrontare sono solo la punta dell’iceberg di una nuova era tecnologica, la risposta potrebbe essere più vicino di quanto immaginiamo.




Study Source

Official website



Le immagini senza riferimento sono state create con l'intelligenza artificiale
Grazie per aver visitato il mio blog. Se ti piacciono i post su #scienza, #pianeta, #politica, #diritti #cripto, #viaggi e scoperta dei segreti e delle bellezze dell'#universo, sentiti libero di seguirmi perché questi sono gli argomenti di cui scrivo di più. Trascorri una splendida giornata e resta su questa fantastica piattaforma :) :)


! La verità ci renderà liberi e la scienza è quella che più si avvicina alla verità!




Sort:  

Quando l’intelligenza artificiale diventerà bastarda, potremmo dire che avrà raggiunto livelli umani