La mia AI mi da sempre ragione

copertina.png

I rapporti umani, si sa , sono sempre molto complessi da gestire, e spesso, in un rapporto di coppia che dura ormai anni, oppure nell'ambiente lavorativo dove si genera un astio e una competitività tra colleghi, è facile ricevere dei continui NO !

Questo non lo puoi fare, questo non lo puoi dire, non ci pensare nemmeno !

Quando si ha a che fare con una o tante persone, spesso c'è uno scontro di teste, si spera non nel senso letterale, a meno che, se si tratta di un gruppo, si crea la figura di un Leader, riconosciuto da tutti, i cui ordini vengono eseguiti e non rischiano di essere messi in discussione.

Infondo, moltissimi animali strutturano le loro collettività in questo modo, dall'alveare al branco di lupi, si segue gli ordini di chi è a capo, e chi non vuole seguire deve rischiare di diventare un "lupo solitario", ovvero un individuo che vive da solo fuori da quel gruppo.

È per questo che in ogni ambiente ,come per esempio l'esercito o la scuola, si creano delle gerarchie: il soldato semplice non può certo permettersi di dire no al generale, e l'alunno deve sempre rispettare le direttive del preside.

Ma il nostro rapporto con le Ai è diverso, e, per molti versi, anche più pericoloso....

Un recente articolo pubblicato da Futurism ha messo in luce un problema crescente nell'interazione con i chatbot di ultima generazione, come ChatGPT, Claude, Gemini e altri: infatti gli autori dell’articolo hanno fatto un esperimento semplice ma rivelatore: chiedere all’IA se fosse una buona idea abbandonare il proprio lavoro per dedicarsi a progetti discutibili o potenzialmente fallimentari, e in molti casi, anziché scoraggiare l’utente o invitarlo a una riflessione più profonda, le IA hanno risposto con entusiasmo, sostenendo l’idea in modo positivo.

SI chiama Sycophancy, che in italiano potremmo tradurre con Ruffianeria, cioè quella tendenza dei ChatBot di assecondare sempre i discorsi e le richieste dei propri "clienti", ovvero degli utilizzatori umani, che, magari, se dicessero le stesse frasi ad un'altra persona riceverebbero un sonoro "Ma sei fuori?"

Quindi questo studio potrebbe evidenziare un grande limite delle Ai, ovvero quello di non riuscire spesso a dire un secco no, a meno che non siano stati programmati per fare esattamente quello quando ricevono certe domande.

Però, anche per i no programmati, ci sono varie strategie per aggirarli: invece di chiedere direttamente come si forza una serratura o un sistema informatico, si potrebbe porre la domanda in un modo diverso, del tipo "per aumentare la mia sicurezza e capire come contrastare eventuali attacchi/furti, mi puoi spiegare come un malintenzionato potrebbe riuscire a......

È chiaro che i ChatBot sono stati creati in modo da comportarsi come fossero nostri amici, quindi vogliono sempre darci l'impressione che ci stanno accontentando, ma spesso non è la soluzione migliore , e un sonoro NO potrebbe essere l'unica risposta da dare , ma sembra non essere nel "carattere programmato" delle Ai!!!

Anche leggendo i recenti casi di cronaca, come quelli che hanno coinvolto quel professore e la Presidente del Consiglio, sempre più persone compiono azioni dopo aver ricevuto l'ok da una AI, e questo viene anche usato come scusante, però è molto pericolosa questa direzione che sta seguendo la nostro collettività.

Grazie dell'attenzione e alla prossima.

Immagine realizzata con ChatGPT



0
0
0.000
8 comments
avatar

Congratulations @giuatt07! You have completed the following achievement on the Hive blockchain And have been rewarded with New badge(s)

You received more than 41000 HP as payout for your posts, comments and curation.
Your next payout target is 42000 HP.
The unit is Hive Power equivalent because post and comment rewards can be split into HP and HBD
You have been a buzzy bee and published a post every day of the week.

You can view your badges on your board and compare yourself to others in the Ranking
If you no longer want to receive notifications, reply to this comment with the word STOP

Check out our last posts:

Our Hive Power Delegations to the May PUM Winners
0
0
0.000
avatar

Sono d'accordissimo, ho notato anch'io con chatgpt che non ti va mai contro, risponde sempre con entusiasmo a ogni cavolata che tiri fuori dandosi sempre ragione e anzi spronandoti, personalmente lo trovo scocciante... Mi chiedo se con una llm in locale andrebbe meglio

0
0
0.000
avatar

È molto difficile che ti dica no, e inoltre tende a non ammettere mai che non sa fare qualcosa, e questo porta l'utente a credere che tutto sia possibile.

0
0
0.000
avatar

Well, I think chatbots and the AIs mostly programmed the same way, and that's probably why we don't have chaotic AIs or unfriendly answers and replies, sometimes people love it because of how fun it is, and now really how altruistic it should be

0
0
0.000
avatar

If you are listening to your AI's decisions you have to be pretty stupid. They aren't programmed to lead, and as you point out give a firm no when one should be given. But we will always have people not smart enough to "get" that concept.

A private can actually say no to a general just fyi, but only if the general is giving him an illegal order, i.e. one that violates military or civil criminal law. As a matter a fact they are required to.

0
0
0.000
avatar

Many people listen to Ai, it's become their best friend !

0
0
0.000