L'AI minaccia gli sviluppatori (anche se molti negano)

Pubblicità
Il futuro della programmazione è tracciata, gli sviluppatori saranno coloro che definiscono un documento molto dettagliato su architettura e funzioni. Sovraintendono alla costruzione e testano. I modelli evolveranno a tal punto che al termine del lavoro suggeriranno miglioramenti funzionali a cui l ingegnere non aveva pensato. Gli sviluppatori di oggi non rimarranno senza lavoro ... Lo cambieranno
 
Il futuro è già scritto. Il non vederlo è da miopi. I programmatori di oggi cambieranno il loro lavoro in qualcosa di diverso.
 
Il futuro è già scritto e fingere di non vederlo è miope. I programmatori di oggi cambieranno il loro lavoro in qualcosa di diverso.
 
Non è un mero sostenere, è la verità.<br />
Allo stato attuale la IA non può sostituire un programmatore.<br />
I disastri che fa generando il codice sono abbastanza enormi, se parliamo di cose semplici e di poche righe allora non ci sono problemi. Ma per cose più complesse fa diverse castronerie al momento. Arriverà un momento in cui sarà indipendente ma annunciare che quel momento sia già adesso è alquanto esagerato.
Tutto dipende dai modelli di supporto. In pochi anni arriveranno a livelli tali che correggeranno dai bugs esistenti e suggeriranno miglioramenti a cui non si era pensato.
 
L'altro giorno dovevo risolvere un problema a lavoro legato ad un software.
Mi sono impuntato per risolverlo con Chat GPT per capire i limiti. Dopo un'ora la situazione continuava a peggiorare sia col modello o1 che con o3-mini-high.

Ho preso carta e penna e ho risolto il problema in 5 minuti.
Ma è anche giusto visto che non parliamo di IA ma di modelli LLM.
Di per sé dire che siano in grado di programmare è sbagliato visto che non è quello che fanno.
 
Certo che non può sostituire un programmatore al 100%. Ma permette a un solo programmatore di fare il lavoro che prima richiedeva 3 i più persone. <br />
<br />
Io vedo due scrivanie vuote almeno.
Concordo, Io stesso la uso attivamente ed è come avere un piccolo stagista che conosce tutti i manuali e la documentazione disponibile
 
L'altro giorno dovevo risolvere un problema a lavoro legato ad un software.
Mi sono impuntato per risolverlo con Chat GPT per capire i limiti. Dopo un'ora la situazione continuava a peggiorare sia col modello o1 che con o3-mini-high.

Ho preso carta e penna e ho risolto il problema in 5 minuti.
Ma è anche giusto visto che non parliamo di IA ma di modelli LLM.
Di per sé dire che siano in grado di programmare è sbagliato visto che non è quello che fanno.
Ci sono molte variabili da valutare per capire perché un LLM fallisce in un certo task. Magari hai beccato proprio una cosa che non sanno fare, o magari non sei riuscito a porre il quesito nel modo giusto - questo è un aspetto molto importante.

Comunque sia ci sono cose per cui non sono ancora utili. Ma è una lista ogni giorno più corta.
 
Ci sono molte variabili da valutare per capire perché un LLM fallisce in un certo task. Magari hai beccato proprio una cosa che non sanno fare, o magari non sei riuscito a porre il quesito nel modo giusto - questo è un aspetto molto importante.

Comunque sia ci sono cose per cui non sono ancora utili. Ma è una lista ogni giorno più corta.
Parliamo di un modello statistico. Ho rivolto la domanda in 10 modi diversi, "sprecando un'ora".
La capacità di analizzare il testo e la richiesta che scriviamo non si basa su un reale concetto di "capire" cosa stai scrivendo.
Si tratta di dare una risposta affine alla richiesta, la risposta che per lui è più probabilmente corretta.
I limiti del LLM in molte situazioni attuali si evince molto in task leggermente più complicati o fuori da una logica standard.

Qua non si parla di utilità in settori, si parla di affidabilità.
Prendere per sicuro quello che dice è alquanto sbagliato, ti posso fare diversi esempi di errori che scrive dai più argomenti disparati.
Astrofisica, fisica generale ecc.

Solo perché risponde non significa che quello che dice sia corretto o che vada bene, bisogna metterselo bene in testa.
Al momento l'unica cosa per cui va bene è tradurre testi, trasformare e codificare dati e generare immagini, cosa che finalmente fa abbastanza bene anche se ancora limitato con le risoluzioni. Credo che sia un po' troppo sopravvalutata al momento.
Ovviamente parlo dei modelli disponibili alla massa e quindi non ottimizzati per uno specifico campo. Bisogna saperli usare è vero, ma bisogna anche essere consapevoli.
 
Parliamo di un modello statistico. Ho rivolto la domanda in 10 modi diversi, "sprecando un'ora".
La capacità di analizzare il testo e la richiesta che scriviamo non si basa su un reale concetto di "capire" cosa stai scrivendo.
Si tratta di dare una risposta affine alla richiesta, la risposta che per lui è più probabilmente corretta.
I limiti del LLM in molte situazioni attuali si evince molto in task leggermente più complicati o fuori da una logica standard.

Qua non si parla di utilità in settori, si parla di affidabilità.
Prendere per sicuro quello che dice è alquanto sbagliato, ti posso fare diversi esempi di errori che scrive dai più argomenti disparati.
Astrofisica, fisica generale ecc.

Solo perché risponde non significa che quello che dice sia corretto o che vada bene, bisogna metterselo bene in testa.
Al momento l'unica cosa per cui va bene è tradurre testi, trasformare e codificare dati e generare immagini, cosa che finalmente fa abbastanza bene anche se ancora limitato con le risoluzioni. Credo che sia un po' troppo sopravvalutata al momento.
Ovviamente parlo dei modelli disponibili alla massa e quindi non ottimizzati per uno specifico campo. Bisogna saperli usare è vero, ma bisogna anche essere consapevoli.
Yes, sono più che d'accordo: sono strumenti fantastici ma solo se usati con consapevolezza
 
Immagino che possa intimorire quella parte di sedicenti sviluppatori che lavorano in modo indecente. Il problema è che in percentuale non sono pochi.
 
Io, che lavoro con l'IA tutti i giorni: hahahahahahahahahahahahahahahaha

Ma. quanto vorrei incontrare la gente che scrive ste bestialità di persona. Giusto per fargli sapere quanto li ritengo polli
 
Io, che lavoro con l&#039;IA tutti i giorni: hahahahahahahahahahahahahahahaha<br />
<br />
Ma. quanto vorrei incontrare la gente che scrive ste bestialità di persona. Giusto per fargli sapere quanto li ritengo polli
E ci tengo a sottolineare: gli LLM sono spettacolari. È un po' come avere il tuo Google personale con cui puoi conversare. Ma non sono, e non saranno mai, sviluppatori. Quantomeno non nella loro forma attuale. Serviranno passi da gigante nel campo di output verificabili, riduzione delle allucinazioni e aumento delle capacità di ragionamento prima di poter anche solo pensare di usarli per più di quello che sono adesso: degli utili "rubber duckies" e broader avanzati
 
E ci tengo a sottolineare: gli LLM sono spettacolari. È un po&#039; come avere il tuo Google personale con cui puoi conversare. Ma non sono, e non saranno mai, sviluppatori. Quantomeno non nella loro forma attuale. Serviranno passi da gigante nel campo di output verificabili, riduzione delle allucinazioni e aumento delle capacità di ragionamento prima di poter anche solo pensare di usarli per più di quello che sono adesso: degli utili &quot;rubber duckies&quot; e broader avanzati
Browser*

Stasera non so proprio scrivere
 
Pubblicità


Scrivi la tua risposta...
Pubblicità
Indietro
Top