NetBattle Forum - Pokémon Battling

Posts written by Seymour

  1. .
    posso aiutarti io a tradurla se vuoi.

    ho della roba che ho scritto a gf su whatsapp dopo aver letto questo bellissimo topic, poi non ho avuto tempo di formarla in una discussione più ordinata, ci provo adesso.

    [1:06 AM, 7/16/2020] Ivano: ho appena visto la discussione sulla storia del meta italiano
    [1:08 AM, 7/16/2020] Ivano: credo che manchi una menzione della svolta 2008-2009 degli stall team da robe tipo tss ciccioni e pesanti, con blissey e gente simile, all'utilizzo di pkmn più dinamici per stallare le offensive deboli e fare danni consistenti, tipo raikou resttalker, milotic, gengar e skarmory più offensivi, (terpsychora)
    [1:08 AM, 7/16/2020] Ivano: ma anche del periodo fra, i nostri team evangelion e l'uscita di reflect sui bulky water, prima suicune e poi verso il 2008 starmie che è stato copiato un sacco
    [1:08 AM, 7/16/2020] Ivano: prima starmie era fissa con ice beam
    [1:10 AM, 7/16/2020] Ivano: poi più recente il dominio dei calm minders con tre attacchi post-softban, ovvero quando la gente ha perso ogni residuo di dignità
    [1:10 AM, 7/16/2020] Ivano: (colpa tua)
    [1:10 AM, 7/16/2020] Ivano: viz jirachi con fire punch e hp grass
    [1:10 AM, 7/16/2020] Ivano: zapdos con tre attacchi anche
    [1:11 AM, 7/16/2020] Ivano: che prima era bolt/hp/rest/talk, poi toxic ovunque e super difensivo, e poi è uscito il tre attacchi col banana team
    [1:11 AM, 7/16/2020] Ivano: il periodo di BOAH sarebbe anche da menzionare

    successivamente ho anche pensato al periodo in cui l'offensiva POISON ha dominato: venusaur, tentacruel, nidoking. mi metteva una paura addosso quasi quanto quella che mette dinozzo. inoltre l'uso di dugtrio negli stall team di cui ha fatto da pioniere il nervous system failure. un altro periodo da menzionare è la diffusione enorme dei tss con zapdos + dusclops, quando zetsu era l'icona di questo tipo di team. se mi viene in mente altro lo dico :9

    ah ho anche visto che tipo sei anni fa hai scritto sulla finale del porytrophy I che ora avresti fatto un sacco di cose diversamente ecc., beh sicuramente è vero ma anche io avrei fatto cose diverse sks. comunque mi dispiace ancora per quella battle, una magra consolazione è che almeno è diventata storica.
  2. .
    sei ubriaco di nuovo spilungone? >:[[[
  3. .
    sto studiando la stabilità del vuoto in teoria delle stringhe, o comunque in gravità quantistica(/olografia) in generale. è una delle cose che mi piacciono di più da sempre, anche se negli ultimi anni mi sono interessato a tante cose diverse e la cosa mi ha creato problemi nella scelta ecc... però ho trovato questo supervisor eccezionale, un ottimo posto ed in generale i progetti che sto facendo sono molto motivanti.

    ovviamente non smetto di essere interessato a tante altre cose (come dicevo ho scritto un paper di linguistica computazionale con un prof informatico), ma il progetto di dottorato è questo, almeno per ora.

    dopo sicuramente voglio continuare a fare ricerca, almeno per come stanno ora le cose perchè mi appassiona veramente farla (da sempre), poi se tutto va male posso sempre darmi alle ripetizioni che mi divertono abbastanza e ho molta esperienza ormai :x
  4. .
    le reti neurali sono un modello che viene spesso utilizzato in machine learning, che comprende una grande varietà di modelli, algoritmi ecc.

    sono ganzi abbestia perchè sono molto flessibili e riescono in modo relativamente efficiente a descrivere uno "spazio di modelli ipotesi" abbastanza variegato da permettere dei buoni fit, ma allo stesso tempo abbastanza vincolato da non esplodere in overfitting. poi ce ne sono tantissimi tipi a seconda di ciò che uno vuole fare ovviamente, ma non sono necessariamente la scelta migliore per ogni problema.
  5. .
    https://www.amazon.com/Learning-Data-Yaser...a/dp/1600490069
    https://www.amazon.com/Elements-Statistica...s/dp/0387848576

    questi sono due libri secondo me scritti molto bene. il primo è proprio il libricino del corso che ti ho linkato, tra l'altro x)
  6. .
    CITAZIONE (Shamela~ @ 18/1/2018, 22:05) 
    dai gf non dire così siamo solo una generazione che se l'è presa 1 po' nel culo lo sapevamo già

    l'insegnante non è male se non vuoi fare un cazzo o il minimo iindispensabile per tutta la vita, un mio amico ing è stato subito assunto in un'azienda a bologna e prende 2000 lordi al mese come primo stipendio (porcodeo) però vuole diventare insegnante guadagnare di meno e non fare un cazzo per tutta la vita

    in effetti non deve essere male fare il docente soprattutto se sei giovane ma dopo un po' non ti rompi i coglioni a spiegare le derivate a degli scemi dell'itis a cui non frega un cazzo?

    SiMMoNs tu cosa dici al riguardo? ha già finito il dottorayo?

    Yo scusami bello, mi ero totalmente perso il topic o_o

    Non ho finito lulz ho iniziato a novembre, ma comunque sono abbastanza d'accordo che potresti trovarti molto bene a lavorare in AI. Un campo che va molto un po' ovunque. Se ti interessa c'è un corso di machine learning che ho trovato illuminante

  7. .
    :x

    in realtà la versione del lavoro che sta in questo topic è stata aggiornata veramente tanto, sono cambiate (migliorate) svariate cose... che ovviamente sono disponibilissimo a spiegare :] e comunque mi fa un sacco piacere che avessi interesse a riguardarlo :*
  8. .
    certo che sì <3<3<3<3
  9. .
    CITAZIONE (Shamela~ @ 16/11/2017, 13:59) 
    gf secondo te un eventuale computer quantistico con sufficiente potenza di calcolo potrebbe simulare un sistema fisico quantistico in maniera valida? e la scala delle simulazioni quanto potrebbe essere vasta ? particelle? atomi? molecole? e un eventuale "algoritmo" in cosa consisterebbe?

    secondo te, ragionando in termini pratici, arriverà mai il giorno in cui saremo in grado di fare ciò, o vedi più i QC come aggeggi in grado di abbassare la complessità computazionale di alcuni specifici problemi già formulati? (ricerca/sorting, fattorizzazione in numeri primi ECC)

    cosa ne pensi al riguardo

    scusa il ritardo obeso sha, sono stato prima in viaggio e poi pieno fino al collo di lavoro da fare :<

    comunque beh, è stato dimostrato che un computer quantistico può simulare qualunque sistema quantistico con precisione arbitrariamente grande, il catch è che per arrivare a precisioni valide per sistemi complessi come quelli che vorremmo (modello standard + gravità su scale mesoscopiche LOL) servirebbe un computer così assurdo che non credo sia una cosa realizzabile entro un tempo di vita... però alle molecole, usando come fisica soltanto le interazioni di coulomb + correzioni, penso ci si possa arrivare con bruta simulazione, anche se già metodi approssimati di ora tipo la DFT e post-post-...-hartree fock spaccano a dovere.

    il discorso è che strettamente parlando con gli algoritmi standard si possono simulare solo sistemi finito dimensionali, essenzialmente ingegnerizzando un sistema che abbia un'hamiltoniana con elementi di matrice che vuoi tu entro una certa precisione, grazie all'universalità di un piccolo set di gate. poi da lì l'evoluzione la si può implementare discretizzando il tuo sistema e facendo step di evoluzione temporale piccoli a piacere, oppure la diagonalizzazione può essere implementata efficientemente.

    però il punto è che, per dire, una particella libera in una scatola discretizzata come un reticolo ha uno spazio di hilbert molto grosso, più precisione uno vuole più grosso diventa, ma secondo me fino alle molecole ci si arriva. se non erro, infatti, combinando i formalismi approssimati già utilizzati adesso per ridurre il problema ad uno finito-dimensionale, sono stati ottenuti risultati molto buoni con delle simulazioni. di lì a fare simulazioni discretizzando in maniera bruta... diciamo che la gente ha sovvertito lo scetticismo con cose più inaspettate.

    e lo so cos'è una giunzione josephson. puppone.
  10. .
    se i problemi della ricerca scientifica non fossero così difficili sarebbe una pacchia, eh? La ricerca è in parte una partita a dadi, non sai quasi mai in anticipo se quello che cerchi di fare porterà da qualche parte o no, e se questo avvenga in tempi ragionevoli. Se uno vuole mettersi a fare ricerca per bene bisogna dedicarsi con passione e "godersi il viaggio", sperando di finire in un ambiente accademico sano che non ti tratta come una macchina da pubblicazioni.
  11. .
    Quello che sollevi è un punto a mio parere estremamente pertinente. La versione tl;dr è che la domanda che poni all'inizio, quella di capire l'effetto macroscopico di qualcosa in base alla sua struttura microscopica, è una domanda di una complessità spaventosa. Di sistemi fisici analiticamente risolubili (entro i confini del modello stesso, chiaramente) ce ne sono veramente pochi rispetto a tutti i casi considerati e, soprattutto, rispetto ai casi di interesse.

    Tipicamente i fenomeni si organizzano per scale. La roba microscopica influenza la roba un po' meno microscopica, e così via fino a raggiungere il macroscopico (qualunque cosa significhi 'macro' in questo contesto, ad un certo punto uno guarda la scala di interesse per un dato fenomeno). Abbiamo imparato che in genere le scale estremamente piccole e le scale estremamente grandi godono di particolare semplicità descrittiva, almeno per quanto riguarda i modelli che usiamo per descriverli: il modello standard della fisica delle particelle ha una ventina di oggetti fondamentali in gioco, mentre il modello standard della cosmologia ha una decina scarsa di parametri che determinano qualunque predizione. Il 'miracolo' della meccanica statistica è che i fenomeni macroscopici emergono in modo fantastico dalle complessità di un aggregato di tanti oggetti microscopici. Ciò che sto cercando di descrivere brevemente qui è la filosofia alla base della rinormalizzazione, che è essenzialmente un motivo cruciale per cui riusciamo a fare scienza: per calcolare il tempo di caduta di un sasso per terra, con precisione molto alta, non mi è particolarmente utile avere una teoria di gravità quantistica le cui correzioni influenzerebbero una cifra decimale molto, molto oltre il limite della precisione sperimentale.

    Le molecole fanno parte di un insieme molto sfortunato di sistemi 'mesoscopici' nei quali il numero di costituenti che entrano nella nostra descrizione (che, in termini della meccanica quantistica di elettroni e ioni interagenti, ci aspettiamo sia molto accurata a meno di casi eccezionali) è troppo alto per essere un sistema facilmente trattabile con metodi numerici, e troppo basso per applicare in modo attendibile metodi statistici. Per trattare certi sistemi tipicamente si usano due approcci:

    - metodi variazionali, che in un modo o nell'altro fanno uso dell'intuizione fisica che abbiamo di questi sistemi. Restringere il campo di investigazione per lo stato fondamentale di un atomo a stati non troppo dissimili da tanti orbitali idrogenoidi è un passo in avanti sostanziale rispetto a una descrizione in termini di onde piane, e facilita notevolmente il lavoro numerico di ottimizzazione. Metodi post-Hartree Fock e metodi basati sulla density functional theory o dynamical mean field theory sono fondati su una comprensione di cosa domina la fisica del sistema che, in qualche modo, mostra da parte nostra un'intuizione che permette di sfondare almeno in parte la barriera dell'assenza di risultati esatti o accurati in altri schemi di approssimazione. Quando sono applicabili in tempi di calcolo umani queste tecniche funzionano molto bene.

    - modelli fenomenologici, che mettono da parte l'ambizione di una descrizione "ab-initio" con tutti i dettagli rilevanti del sistema: qui l'idea è di buttare giù modelli più semplici che funzionino bene, motivandoli non necessariamente con dei principi primi e passaggi rigorosi in mezzo, ma magari con una buona dose di intuizione fisica e, possibilmente, input sperimentale. Ironicamente, a volte succede che tali modelli vengano successivamente ricavati tramite "principi primi" grazie a tecniche sulla falsariga della rinormalizzazione di cui ho parlato prima, in opportuni regimi limite di interesse.

    L'onnipresenza di schemi di approssimazione nella scienza è da un lato una maledizione che ci impedisce di fare progressi più rapidamente. E ci troviamo tristemente a delle scale in cui pare che la natura sia dominata da fenomeni incredibilmente complessi. Però personalmente penso che dall'altro lato della medaglia la necessità di trovare metodi approssimati che funzionino porti ad una comprensione intuitiva maggiore di quella che avremmo altrimenti. Pensa se potessimo risolvere esattamente qualunque sistema. Pensa se potessimo risolvere esattamente il modello standard o una putativa teoria del tutto, calcolando qualunque quantità osservabile, qualunque probabilità di un esito di qualunque misura. Come faremmo a scoprire l'esistenza, per dirne una, dell'atomo di idrogeno come stato incredibilmente complesso di un sistema microscopico del genere? Senza sapere già che c'è potrebbe essere complicato pensare di andarlo a cercare. Avere il potere assoluto di calcolare ogni cosa potrebbe portare a non sapere cosa calcolare, mentre passare anni di lavoro a cercare di trovare approssimazioni più accurate per la conducibilità di un materiale porta in genere a capire tanti piccoli dettagli sulla fisica di elettroni fortemente interagenti. Per dirne una.
  12. .
    ED IO SONO STATO IL TERZO A CLICCARE
  13. .
    Quello è il grafico delle frequenze relative. Il 'grafico della media campionaria' non ha senso. Ciò che avrebbe senso è disegnare il grafico della distribuzione di probabilità della media campionaria (quello che hai scritto tu alla fine), ma verrebbe un grafico diverso. Quindi evidentemente la domanda è fare il grafico delle frequenze relative trovate in un campione binomiale o roba del genere
  14. .
    Il fatto è che non hai specificato cosa vuoi fare. Potresti per favore specificare:

    - Il contesto: hai a che fare con una variabile casuale, N campionamenti e la media campionaria. Giusto? Sai esattamente che tipo di variabile sia? Altro?

    - Il problema: che cosa vuoi fare? Parli di un grafico. Che grafico? Quali grandezze sono 'sulle x' e 'sulle y'?

    Da quello che ho capito io: hai una variabile casuale e vuoi fare il grafico della distribuzione di probabilità della sua media campionaria. Giusto? In tal caso, ripeto, la distribuzione dipende dalla PDF della variabile casuale stessa. In caso tu la conosca si può trovare esplicitamente. In caso tu non la conosca l'unica possibilità sensata è che dovresti fare una qualche approssimazione, e l'unica cosa 'universale' che uno può fare è usare il teorema del limite centrale e fare una bella gaussiana.

    La domanda sullo stimatore nella distribuzione geometrica: è un problema totalmente diverso, ma per fortuna non è difficile. E' abbastanza intuitivo costruire degli stimatori per parametri di distribuzioni standard. Ad esempio, se vuoi costruire uno stimatore per il parametro 'p' di una distribuzione di bernoulli (testa/croce) fai N campionamenti e conti le 'teste'. Il numero di teste diviso N è uno stimatore di p (che ha pure delle proprietà molto carine). Per la geometrica la situazione non è troppo diversa...
  15. .
    Non si capisce nulla di quello che vuoi fare. La tua domanda è come rappresentare la distribuzione di probabilità (la 'PDF') di una media campionaria?

    Se è questo il problema devi sapere i dettagli della distribuzione della variabile X dalla quale tiri fuori i campioni x_1,...,x_N che usi per costruire la media campionaria. Forse, a questo punto, ti riferisci ad un caso particolare oppure all'approssimazione in cui il numero N di misure è abbastanza grande da usare il risultato che si ottiene per N che tende ad infinito... in tal caso puoi usare il teorema del limite centrale e disegnare una bella gaussiana. La media della gaussiana sarà uguale alla media della variabile X, mentre la deviazione standard è quella di X diviso la radice di N.

    Se non è questo non si capisce cosa intendi però.
1490 replies since 16/3/2008
.