Di predictive chemistry e dell'imprecisione della meccanica quantistica

« Older   Newer »
 
  Share  
.
  1. Seymour
        +5   Top   Dislike
     
    .
    Avatar

    Heisenberg mi fa un baffo.

    Group
    Member
    Posts
    2,437
    e-penis
    +594

    Status
    Offline
    Quello che sollevi è un punto a mio parere estremamente pertinente. La versione tl;dr è che la domanda che poni all'inizio, quella di capire l'effetto macroscopico di qualcosa in base alla sua struttura microscopica, è una domanda di una complessità spaventosa. Di sistemi fisici analiticamente risolubili (entro i confini del modello stesso, chiaramente) ce ne sono veramente pochi rispetto a tutti i casi considerati e, soprattutto, rispetto ai casi di interesse.

    Tipicamente i fenomeni si organizzano per scale. La roba microscopica influenza la roba un po' meno microscopica, e così via fino a raggiungere il macroscopico (qualunque cosa significhi 'macro' in questo contesto, ad un certo punto uno guarda la scala di interesse per un dato fenomeno). Abbiamo imparato che in genere le scale estremamente piccole e le scale estremamente grandi godono di particolare semplicità descrittiva, almeno per quanto riguarda i modelli che usiamo per descriverli: il modello standard della fisica delle particelle ha una ventina di oggetti fondamentali in gioco, mentre il modello standard della cosmologia ha una decina scarsa di parametri che determinano qualunque predizione. Il 'miracolo' della meccanica statistica è che i fenomeni macroscopici emergono in modo fantastico dalle complessità di un aggregato di tanti oggetti microscopici. Ciò che sto cercando di descrivere brevemente qui è la filosofia alla base della rinormalizzazione, che è essenzialmente un motivo cruciale per cui riusciamo a fare scienza: per calcolare il tempo di caduta di un sasso per terra, con precisione molto alta, non mi è particolarmente utile avere una teoria di gravità quantistica le cui correzioni influenzerebbero una cifra decimale molto, molto oltre il limite della precisione sperimentale.

    Le molecole fanno parte di un insieme molto sfortunato di sistemi 'mesoscopici' nei quali il numero di costituenti che entrano nella nostra descrizione (che, in termini della meccanica quantistica di elettroni e ioni interagenti, ci aspettiamo sia molto accurata a meno di casi eccezionali) è troppo alto per essere un sistema facilmente trattabile con metodi numerici, e troppo basso per applicare in modo attendibile metodi statistici. Per trattare certi sistemi tipicamente si usano due approcci:

    - metodi variazionali, che in un modo o nell'altro fanno uso dell'intuizione fisica che abbiamo di questi sistemi. Restringere il campo di investigazione per lo stato fondamentale di un atomo a stati non troppo dissimili da tanti orbitali idrogenoidi è un passo in avanti sostanziale rispetto a una descrizione in termini di onde piane, e facilita notevolmente il lavoro numerico di ottimizzazione. Metodi post-Hartree Fock e metodi basati sulla density functional theory o dynamical mean field theory sono fondati su una comprensione di cosa domina la fisica del sistema che, in qualche modo, mostra da parte nostra un'intuizione che permette di sfondare almeno in parte la barriera dell'assenza di risultati esatti o accurati in altri schemi di approssimazione. Quando sono applicabili in tempi di calcolo umani queste tecniche funzionano molto bene.

    - modelli fenomenologici, che mettono da parte l'ambizione di una descrizione "ab-initio" con tutti i dettagli rilevanti del sistema: qui l'idea è di buttare giù modelli più semplici che funzionino bene, motivandoli non necessariamente con dei principi primi e passaggi rigorosi in mezzo, ma magari con una buona dose di intuizione fisica e, possibilmente, input sperimentale. Ironicamente, a volte succede che tali modelli vengano successivamente ricavati tramite "principi primi" grazie a tecniche sulla falsariga della rinormalizzazione di cui ho parlato prima, in opportuni regimi limite di interesse.

    L'onnipresenza di schemi di approssimazione nella scienza è da un lato una maledizione che ci impedisce di fare progressi più rapidamente. E ci troviamo tristemente a delle scale in cui pare che la natura sia dominata da fenomeni incredibilmente complessi. Però personalmente penso che dall'altro lato della medaglia la necessità di trovare metodi approssimati che funzionino porti ad una comprensione intuitiva maggiore di quella che avremmo altrimenti. Pensa se potessimo risolvere esattamente qualunque sistema. Pensa se potessimo risolvere esattamente il modello standard o una putativa teoria del tutto, calcolando qualunque quantità osservabile, qualunque probabilità di un esito di qualunque misura. Come faremmo a scoprire l'esistenza, per dirne una, dell'atomo di idrogeno come stato incredibilmente complesso di un sistema microscopico del genere? Senza sapere già che c'è potrebbe essere complicato pensare di andarlo a cercare. Avere il potere assoluto di calcolare ogni cosa potrebbe portare a non sapere cosa calcolare, mentre passare anni di lavoro a cercare di trovare approssimazioni più accurate per la conducibilità di un materiale porta in genere a capire tanti piccoli dettagli sulla fisica di elettroni fortemente interagenti. Per dirne una.
     
    Top
    .
29 replies since 30/10/2017, 12:37   645 views
  Share  
.