Algoritmi neurali per il lotto

di il
90 risposte

90 Risposte - Pagina 2

  • Re: Algoritmi neurali per il lotto

    Ciao
    non ho ancora le risposte alle tue domande esistenziali, anche perche' non ho ancora una rete finale costruita, in modo da poter lavorare per la sua miglioria nelle sue strutture basilari. Cosa intendi quando dici che "il numero 20 non è fisso in questa statistica"? 2 su venti puo' essere un buon inizio, ora basterebbe "limare" alcune parti della tua rete.
    Come input cosa gli dai? I tuoi file di input come sono costruiti? Che genere di statistiche metti come input? ? E come output? Io stavo pensando, mentre tornavo a casa, se magari un possibile output puo' essere un numero che rappresenta la decina, (stile il prof. Pazzaglia).
    A presto.
    ALEX
  • Re: Algoritmi neurali per il lotto

    20 non è fisso nel senso che io prendo sempre come riferimento i primi 30 numeri (non vado oltre il 30°) però, se mi limitassi "mediamente" a 20 (quando 18, quando 22, per intenderci) allora il rendimento cresce: ovviamente un numero o lo gioco o no, e per questo il rendimento aumenta ma non è un dato completamente significativo. Lavoro con file di testo costruiti dalla mia applicazione da una query su DB Access che estrae statistiche di frequenze e ritardi nel medio e lungo periodo. Come output interpreto il valore binario come probabilità non normalizzata. In ogni caso, l'idea della decina porta ad avere 10 numeri per ogni previsione, e mi sembra troppo dispersiva... però, se si potessero incrociare più reti??? Tipo una per la decina, una per pari e dispari, una per somme e distanze... il tutto poi da filtrare sulle combinazioni... O avere troppi elementi in gioco riporta la rete ad essere un concentrato di randomicità???
  • Re: Algoritmi neurali per il lotto

    Prendi come riferimento i primi 30 numeri per via della legge del terzo?
    Sarebbe molto interessante incrociare piu' reti, ma poi come fai a filtrare i risultati delle diverse reti? Ha senso costruire una torre di babele per poi rendersi conto che e' realmente e totalmente random (anche se io non lo credo:-))?
    Stai usando qualche ruota particolare, oppure tutte e 10 le ruote?
    A presto.
    ALEX

    P.S. L'idea delle NN mi e' venuta in mente dopo aver visto la serie "Numbers" e per essere piu' precisi vedendo la siglia iniziale.
  • Re: Algoritmi neurali per il lotto

    Concordo sulla babele... ma è anche vero che una legge dietro c'è, ed è quella dei grandi numeri... bisogna solo riuscire ad applicarla...

    Uso 30 numeri perchè poi ne gioco 30 filtrati e non uso alcuna ruota: sto lavorando sul SUPERENALOTTO!!! ...

    Ho aggiunto il training stop method al mio algoritmo, che può funzionare da validatore di modello: ora devo solo applicarlo...
  • Re: Algoritmi neurali per il lotto

    Ciao
    parliamo la stessa lingua!!! Sono convinto anche io che una legge matematica dietro le estrazioni c'e'.
    Basta trovare bene la serie storica giusta, i giusti parametri alla NN e alla fine scoprire la legge che c'e' dietro.
    Non e' una cosa facile, ma se lo fosse, saremmo tutti milionari
    Ho codificato una rete BPE standard lo scorso fine settimana, adesso sto lavorando alla ottimizzazione dei metodi.
    Una volta che ho dei risultati, li esporro' in questo thread.
    A presto.
    ALEX
  • Re: Algoritmi neurali per il lotto

    Se fosse troppo facile, faremmo tutti 6 da 38 centesimi, mentre il lotto chiuderebbe ...

    Aspetto i tuoi risultati, servono nuovi input al mio sviluppo...
  • Re: Algoritmi neurali per il lotto

    Ciao
    come va?
    Scusa per la latitanza, ma mi sono messo a leggere un bel po' di documentazione, e ho avuto anche un bel po' da fare con il lavoro.
    Allora ho contattato vari amici che usano NN per lavoro e mi hanno detto, per quanto riguarda la funzione di attivazione della rete, che "la sigmoide é quella che consente di meglio "imitare" il comportamento di un neurone biologico che, quando accumula una carica elettrochimica elevata, emette un segnale oltre un certo livello di accumulazione. In pratica la funzione vera é una funzione a soglia, il miglior modo per approssimarla é una logistica (sigmoide)." Navigando su internet ho trovato questa pagina in cui dichiarano altre funzioni usate come quelle di una tangente lineare o iperbolica.
    Ne sai qualcosa?
    Se preferisci che continuiamo la nostra conversazione con mail del sito, invece che con il forum, dimmelo pure.
    Ovviamente, se c'e' qualcun altro che vuole intervenire, e' sempre ben accetto.
    A presto.
    ALEX
  • Re: Algoritmi neurali per il lotto

    Ciao, per quanto riguarda la discussione, credo che al momento il forum possa restare il posto più indicato, anche perchè spero si possa aggiungere ancora qualcuno che desideri partecipare attivamente alla discussione, e ancora perchè per ora la discussione è a "tempo perso"; nel caso diventi più interessante, potremo ripiegare su un forum privato o su altro del genere.

    Ma veniamo a noi!

    Sulla sigmoide, mi confermi quanto già letto, e personalmente ritengo che possa determinare un fattore di scelta più "convinto"; mi chiedevo se una funzione più "morbida" come la lineare potesse essere più indicata per un minor effetto memoria della rete. Per il momento però resto sulla sigmoide. E in parte ho anticipato la risposta alla tua domanda.

    Io personalmente faccio un ragionamento piuttosto "infantile" e penso al neurone come ad una black-box che implementa la funzione di attivazione e la moltiplica all'input. Quindi, se prendiamo la lineare, è come se entrando zero esce zero, entrando 0,3 esce 0,3 e così via... la sigmoide invece cerca di comportarsi quasi come un gradino e l'obiettivo è quello di avere un valore molto basso (ad es.: 0,01) per valori piccoli di input (ad esempio <0.3), molto alti (da esempio 0,99) per valori grandi di input (ad esempio > 0,7) e valori intermedi con una crescita più ripida. In pratica quindi, la funzione di attivazione la vedo come una forma di "decisione" del singolo neurone. Spero con questo di aver risposto alla tua domanda (ricordiamoci sempre che siamo in un campo abbastanza euristico). Per la tanh, quindi, basta che guardi la funzione. Ovviamente, poi, entra in gioco il fattore "jolly" rappresentato dal bias.

    Secondo me il primo step che dobbiamo fare è individuare il modello, inteso come numero di layer e di neuroni, ovvero definire input ed output, per il quale spero di poter contare anche nel promesso intervento di un altro utente interessato al thread.

    Per quanto riguarda il numero di layer, credo che dipenda molto dalla funzione che vogliamo inseguire, in quanto, come sai, a seconda dei livelli possiamo rappresentare (con la giusta struttura!!) solo funzioni continue o qualunque tipo di funzione. Per cui, la nostra funzione è continua o no? Lo spazio delle variabili è linearmente separabile (per l'uso di variabili binarie)? Definiamo euristicamente la natura della funzione che regola gli eventi e su essa costruiamo input e output o viceversa?

    [Per gli aspetti più teorici, ci vorrebbe un matematico!!! ]

    Ovviamente, non mi sorprendo se non hai tutte le risposte; non mi sorprendo nemmeno se, come me, non ne hai nemmeno una!!! però, se partiamo da ipotesi concrete e modellabili, ormai il software ce l'ho e, con i dovuti tempi, posso buttare giù qualche simulazione...
  • Re: Algoritmi neurali per il lotto

    Salve a tutti, sono interessato anche io a questo argomento, sto cercando di creare una rete neurale con 6 input 3 hidden level da 3 neuroni e 6 output per
    il super enalotto, ma non riesco ad ottenere risultati significativi, che ne dite di studiare un neurone comune e poi provare algoritimi genetici per la struttura delle reti?
    p.s. qualcuno di voi potrebbe mandarmi i dati delle estrazioni del lotto?
    Bl00z
  • Re: Algoritmi neurali per il lotto

    Ah! Per coloro che volessero contribuire, ricordo che posso testare reti con struttura I-H*-O, a neuroni binari con qualunque funzione di attivazione, training EBP con o senza validation set (sebbene ritengo di poter validare i risultati solo in caso di sistematica riduzione degli errori nel VS per un consistente numero di epoche di addestramento). L'input può essere una qualunque proprietà relativa allo storico delle estrazioni. Per ogni suggerimento valido, credo di poter avere i primi risultati in circa una settimana per ogni rete composta da circa 20.000.000 di connessioni.
  • Re: Algoritmi neurali per il lotto

    Ciao Psycho, io sono molto inesperto, non è che mi manderesti un esempio in qualsiasi codice di un neurone che usi?
    Grazie.
    Bl00z
  • Re: Algoritmi neurali per il lotto

    Ciao Blooz, perdonami ma non capisco la tua domanda. Un neurone è una matrice, o un vettore o un indice, a seconda dell'implementazione della rete neurale. Il codice è relativo all'aggiornamento dei pesi sinaptici e dei bias, ed è un normale codice EBP come puoi trovarlo nei vari link presenti nel thread. Il mio codice ha solo la caratteristica di aver trattato con OOP la struttura della rete, che (a parte I/O utente) è generalizzato ed il resto delle feature sono sempre esposte nel thread.
    Infatti, lo scopo del thread è diventato non tanto quello di individuare le tecniche implementative bensì di individuare le caratteristiche della NN e il modello da applicare al problema.
    Quindi, sperando di darti un utile elemento di sviluppo, ti ricordo che sto lavorando con neuroni binari (ovviamente non interi).

    P.S.: [Per TUTTI i partecipanti all'argomento] Forza ragà!!!! Che fine avete fatto??? La vogliamo questa super rete???
  • Re: Algoritmi neurali per il lotto

    Ciao a tutti
    Scusate per la latitanza, ma fra lavoro e universita' non ho avuto tanto tempo da dedicare al progetto lotto/superenalotto neural/genetico.
    Volevo aggiornarVi circa le cose che ho e vorrei fare.
    Ho costruito, lo scorso fine settimana, un algoritmo genetico da poter applicare ad una serie storica di lotto che, una volta che apprende, dovrebbe (dico dovrebbe perche' la ho provata con pochi set di dati, per validare l'algoritmo) prevedere i numeri delle prossime estrazioni. L'algoritmo e' finito, ora devo creare i set di dati da dargli da mangiare. Dovrebbe cominciare a fare il suo lavoro entro breve.
    Ora sto codificando, invece, una rete neurale BPE (back propagation error) da dare da mangiare alle estrazioni per poter prevedere "passo passo" (mentre l'AG prevede un set di numeri probabili nelle prossime n Estrazioni). Volevo chiedere a psycho o agli altri di questo thread delle info sui pesi iniziali da dare ai neuroni. Random? Random tra 0.25 a -0.25? Voi cosa usereste? A presto e spero di avere qualcosa da dare al thread il piui' presto possibile.
    A presto.
    ALEX
  • Re: Algoritmi neurali per il lotto

    Alex, che assist!!! Nel controllare il codice ho notato che davo un valore iniziale ai pesi tra 0 e 0.02, perchè trovavo scarso apprendimento con valori più alti, ma ho notato che inizializzavo i bias tra 0 ed 1... ora quasi quasi inizializzo tutto tra 0 e 0.2 e poi tra -0.2 e 0.2 e poi ti faccio sapere l'esito dei test...

    A presto.
  • Re: Algoritmi neurali per il lotto

    Ciao Psyco, come va?
    hai news sui tuoi algoritmi neurali?
    io ho fatto un modello con un algoritmo genetico , e ho avuto risultati non troppo belli.
    comparando contemporaneamente un giocatore con algoritmo genetico e uno con la strategia random, quest'ultimo lo batte sempre.
    Pochi ambi, pochissime ambate anche dopo un lungo periodo di trainig.
    Ora sto lavorando con una rete a backpropagation.
    Ma devo ottimizzare i pesi di input.
    Aspetto tue news.
    ALEX
Devi accedere o registrarti per scrivere nel forum
90 risposte