AI > medici

Status
Not open for further replies.
La casta numero uno è il clero preti suore vescovi cardinali etc.... secondo c'è medici e banda. Ma vale più il prete che il medico mi spiace. Un Cardinale vale tutta la sanità italiana.
Non si muove foglia che la chiesa non voglia sindaco maresciallo e vescovo sono le tre persone più importanti per la città. Medico vale un bel kaiser. Meglio fare il seminario e poi avere mangiare gratis e macchinone sotto il culo con privilegi che medico fidati medico non vale un cazzo il prete e sempre in prima linea insieme a sindaco e alte cariche se ci fai caso.
 
Studi queste cose? Perché io le sto studiando anche se sono agli inizi, ed è vero che questi modelli non hanno un miglioramento costante (che è quello a cui si punta) non è sufficiente avere un set di dati grande.

Infatti non esiste un solo tipo di rete neurale.

Dire che i limiti sono solo la quantità di dati è semplicemente falso.
me ne sono appassionato anni fa quando tutti credevano che facebook fosse solo un social in cui mettere like e corna. Invece era un enorme dataset per i loro studi e ricerche sull'ai e le applicazioni per e non solo il social network.
Quindi si so di cosa si tratta, ho implementato un semplice perceptron in python per un mio progetto. So cosa è un sistema di learning supervised e non e di come funziona stable diffusion e cosa è la discesa del gradiente o un algoritmo di convoluzione. Tu invece cosa sai? Sai come si aggiornano i parametri di un modello di learning? O leggi focus pure tu e credi che sia studiare e sapere?

è la qualità dei dati che importa per il learning non la quantità.
 
me ne sono appassionato anni fa quando tutti credevano che facebook fosse solo un social in cui mettere like e corna. Invece era un enorme dataset per i loro studi e ricerche sull'ai e le applicazioni per e non solo il social network.
Quindi si so di cosa si tratta, ho implementato un semplice perceptron in python per un mio progetto. So cosa è un sistema di learning supervised e non e di come funziona stable diffusion e cosa è la discesa del gradiente o un algoritmo di convoluzione. Tu invece cosa sai? Sai come si aggiornano i parametri di un modello di learning? O leggi focus pure tu e credi che sia studiare e sapere?

è la qualità dei dati che importa per il learning non la quantità.
Non ho mai scritto infatti che conta la quantità di dati lol. Esattamente l'opposto.

Edit. Mi laureerò in ingegneria informatica a breve comunque. Non sono un esperto di ML, leggo solamente alcune cose e so cose molto base.
 
Last edited:
Comunque l'opinione dell'appassionato che si è fatto il modellino su python mi interessa poco.
 
Semplicemente volevo fare notare come non basta firnire nuovi dati.
forse capisci meglio i linguaggi di programmazione che l'italiano. Tu hai portato come esempio il problema di chat gpt come un problema universale. Cazzate è un problema di chat gpt. E con fornire nuovi dati non si intendeva il mero aggiungere una o piu casistiche, si intende riuscire a creare maggiori relazioni tra le casistiche che piu sono più se l'algoritmo di learning è buono saprà tenere conto.
Comunque l'opinione dell'appassionato che si è fatto il modellino su python mi interessa poco.
Comunque il perceptron era per giocare, leggermi decine di ricerche di R&D del FAIR di facebook guidato da Yan LeCun era per passione, di solito è roba da dottorato o postdoc. Ma evidentemente ne sai di piu tu che stai prendendo la tua laurea di cartone e hai preso un problema e ne hai fatto un teorema. Bravo.
 
forse capisci meglio i linguaggi di programmazione che l'italiano. Tu hai portato come esempio il problema di chat gpt come un problema universale. Cazzate è un problema di chat gpt. E con fornire nuovi dati non si intendeva il mero aggiungere una o piu casistiche, si intende riuscire a creare maggiori relazioni tra le casistiche che piu sono più se l'algoritmo di learning è buono saprà tenere conto.

Comunque il perceptron era per giocare, leggermi decine di ricerche di R&D del FAIR di facebook guidato da Yan LeCun era per passione, di solito è roba da dottorato o postdoc. Ma evidentemente ne sai di piu tu che stai prendendo la tua laurea di cartone e hai preso un problema e ne hai fatto un teorema. Bravo.
Lol non hai capito niente.
In realtà quel twitt mostrava i limiti del machine learning attuale. Parlava proprio che non esistono modelli di machine learning in grado di adattarsi continuamente senza problemi al momento.

Bro ti è andata male.
 
Last edited:
forse capisci meglio i linguaggi di programmazione che l'italiano. Tu hai portato come esempio il problema di chat gpt come un problema universale. Cazzate è un problema di chat gpt. E con fornire nuovi dati non si intendeva il mero aggiungere una o piu casistiche, si intende riuscire a creare maggiori relazioni tra le casistiche che piu sono più se l'algoritmo di learning è buono saprà tenere conto.

Comunque il perceptron era per giocare, leggermi decine di ricerche di R&D del FAIR di facebook guidato da Yan LeCun era per passione, di solito è roba da dottorato o postdoc. Ma evidentemente ne sai di piu tu che stai prendendo la tua laurea di cartone e hai preso un problema e ne hai fatto un teorema. Bravo.
Hai fatto il dottorato? O te li sei letti per passatempo?
Di uno che lo fa per passatempo non mi interessa.
 
Lol non hai capito niente.
In realtà quel twitt mostrava i limiti del machine learning attuale. Parlava proprio che non esistono modelli di machine learning in grado di adattarsi continuamente al momento.
hai capito tutto tu con una storia vecchia di mesi, di chat gpt.
Ma aspe Chomba Bupe, ricercatore dello Zambia dice ciò allora è tutto regolare.


can get = possono essere. Non per forza sono. E non per forza peggio.
such as gpt = come gpt.

Non è un problema universale dei sistemi di ml.
 
hai capito tutto tu con una storia vecchia di mesi, di chat gpt.
Ma aspe Chomba Bupe, ricercatore dello Zambia dice ciò allora è tutto regolare.


can get = possono essere. Non per forza sono. E non per forza peggio.
such as gpt = come gpt.

Non è un problema universale dei sistemi di ml.
Non ho detto che per forza sono. Comunque volevo solo contraddire la cosa della quantità di dati.
In ogni caso non sono argomenti di dottorato. Si fanno nella mia università alla magistrale
 
Bro, volevo riportare che diceva il tizio che mi pare saperne. Se ne sai più tu amen, ma non mi pare. Sei uno che si è letto 4 cose per passatempo.
 
Non ho detto che per forza sono. Comunque volevo solo contraddire la cosa della quantità di dati.
In ogni caso non sono argomenti di dottorato. Si fanno nella mia università alla magistrale
quando me ne ero appassionato io le facoltà non trattavano ancor ai, si parlava ancora di big data.
E poi per capire i modelli e le ricerche basta conoscere algebra e geometria da analisi 1 e 2 e un po di calcolo numerico. Il problema è che dubito che all'uni si lavori sui paper ufficiali delle riviste. Di solito si usano le slide coi riassuntini.
 
Bro, volevo riportare che diceva il tizio che mi pare saperne. Se ne sai più tu amen, ma non mi pare. Sei uno che si è letto 4 cose per passatempo.
4 cose che 4 non sono per ben 4 anni. Ho una laurea in ingegneria, ho fatto calcolo numerico e probabilità. La matematica dell'AI non è impossibile da capire con le basi giuste. Che poi non abbia mai potuto lavorare nell'ai perchè quando ho iniziato a lavorare era roba solo per ricercatori universitari non è colpa mia. Leggevo i paper del FAIR sull'ai quando nessuno di voi ne aveva mai ancora sentito parlare. Mi sono sparato un po di lecture di joshua blengio, chissa se Chombe pure sa cosa è una matrice diagonale superiore, o una probabilità bayesiana.
 
4 cose che 4 non sono per ben 4 anni. Ho una laurea in ingegneria, ho fatto calcolo numerico e probabilità. La matematica dell'AI non è impossibile da capire con le basi giuste. Che poi non abbia mai potuto lavorare nell'ai perchè quando ho iniziato a lavorare era roba solo per ricercatori universitari non è colpa mia. Leggevo i paper del FAIR sull'ai quando nessuno di voi ne aveva mai ancora sentito parlare. Mi sono sparato un po di lecture di joshua blengio, chissa se Chombe pure sa cosa è una matrice diagonale superiore, o una probabilità bayesiana.
Ral?
 
4 cose che 4 non sono per ben 4 anni. Ho una laurea in ingegneria, ho fatto calcolo numerico e probabilità. La matematica dell'AI non è impossibile da capire con le basi giuste. Che poi non abbia mai potuto lavorare nell'ai perchè quando ho iniziato a lavorare era roba solo per ricercatori universitari non è colpa mia. Leggevo i paper del FAIR sull'ai quando nessuno di voi ne aveva mai ancora sentito parlare. Mi sono sparato un po di lecture di joshua blengio, chissa se Chombe pure sa cosa è una matrice diagonale superiore, o una probabilità bayesiana.
Avevo 8 anni probabilmente ai tempi
 
Come pensavo. In Italia non vale la pena fare ingegneria.

Spero lo faccia per deprimermi. In realtà avrà guadagnato 120k l'anno e si è ritirato in qualche villa. Scrive qui perché comunque è brutto e soldi non hanno risolto il problema.
 
Status
Not open for further replies.
Back
Top