|
0 membri (),
2,410
ospiti, e
8
robot. |
|
Chiave:
Admin,
Mod Globale,
Mod
|
|
|
|
Iscritto: Feb 2002
Posts: 879
Member
|
Member
Iscritto: Feb 2002
Posts: 879 |
vero ithaca è il riferimento ufficiale, è questo che non capisco e non mi .... torna.
Se una faglia/struttura è attiva allora per forza è capace
la struttura di Orciano censita nel DISS ha prodotto danni considerevoli, ma non risulta capace, aggiungere o meno una faglia capace .... modifica pesantemente l'edificabiità di un'area.
ribadisco il concetto.
In Ithaca è riportata una faglia capace che divide a metà Pisa. e questo dovrebbe condizionare pesantemente l'edilizia?
tutti i colleghi io compreso che non ne danno atto in relazione ed il Comune che prendendone atto non adegua gli strumenti urbanistici si prendono una responsabilità notevole, le NTC in merito alle faglie capaci sono chiare, al di là del danno prodotto dell'evento sismico.
provate a comparare nelle vostre zone i due DB.
anche in questo caso avere un riferimento unico .... è utopia.
ma il tecnico che deve fare?
|
|
|
|
|
Iscritto: Mar 2004
Posts: 8,347 Mi piace: 4
M Member
|
M Member
Iscritto: Mar 2004
Posts: 8,347 Mi piace: 4 |
vero ithaca è il riferimento ufficiale, è questo che non capisco e non mi .... torna. Se una faglia/struttura è attiva allora per forza è capace
Attento, vale il contrario di quello che hai detto. Ossia se una faglia è capace allora è attiva ma non viceversa. La definizione di faglia capace è una faglia attiva che mostra evidenze di dislocazione in superficie.
"Data speak for themselves" -Reverend Thomas Bayes 1702-1761 P(Ai|E)=(P(E|Ai)P(Ai))/P(E)
|
|
|
|
|
Iscritto: Oct 2000
Posts: 3,950
Member
|
Member
Iscritto: Oct 2000
Posts: 3,950 |
Scusate ho fatto un errore, avendo scritto di getto senza controllare le fonti. Diss e database gis ingv utilizzano gli stessi dati (secondo quanto ho capito e mi hanno comunicato). Le faglie capaci ed il loro inventario non centrano o non ne conosco la relazione di utilizzo. Purtroppo dietro a queste cose c'è sia una mole immensa di dati ma anche incongruenze che a volte affiorano a volte no. Poi arriva qualcuno che ci mette gli 0,ooo g o fraintende Ml con Mw e il caos nasce. Comunque meglio che niente.
|
|
|
|
|
Iscritto: Feb 2002
Posts: 879
Member
|
Member
Iscritto: Feb 2002
Posts: 879 |
vero ithaca è il riferimento ufficiale, è questo che non capisco e non mi .... torna. Se una faglia/struttura è attiva allora per forza è capace
Attento, vale il contrario di quello che hai detto. Ossia se una faglia è capace allora è attiva ma non viceversa. La definizione di faglia capace è una faglia attiva che mostra evidenze di dislocazione in superficie. giusta e corretta osservazione.
|
|
|
|
|
Iscritto: Dec 2009
Posts: 1,019 Mi piace: 1
Member
|
Member
Iscritto: Dec 2009
Posts: 1,019 Mi piace: 1 |
Non so se è una esagerazione ma credo che quando si oscilla intorno a M=5 sia importante. I dati di disaggregazione sono relativi ad intervalli di M=0.5 questo può costituire un problema non conoscendo i dati di origine. Nel costruire la curva cumulativa consideriamo la media dei due valori? Oppure il valore maggiore? Questo problema naturalmente credo si rifletta anche nelle verifiche ad M maggiore.
Un altro problema è che dovremmo riuscire a rimanere aderenti al livello prestazionale relativo al tipo di opera e quindi alle sue caratteristiche, eccedendo in sicurezza (scegliendo percentili molto cautelativi) non rischiamo di fare verifiche eccessivamente cautelative e oggettivamente fuori norma per il tipo di opera in esame? (l’utilizzo della M definita attraverso la ZS di appartenenza, o vicinanza ad essa, potrebbe non essere lecito proprio perché non considera i tempo di ritorno relativo al tipo di opera in esame) Il problema non sarebbe quindi l’utilizzo della M media (o modale?) ma la banca dati (che andrebbe anche aggiornata) e/o la tipologia di analisi per derivare la disaggregazione, insomma il problema è il possibile errore nella definizione della pericolosità sismica e dei relativi dati di disaggregazione. Forse solo conoscendo l’errore potremmo forzare legittimamente i percentili per derivare la M?
La Luna piena minchionò la Lucciola - Sarà l'effetto dell'economia, ma quel lume che porti è deboluccio... - Sì, - disse quella - ma la luce è mia! (Trilussa)
|
|
|
|
|
Iscritto: Mar 2004
Posts: 8,347 Mi piace: 4
M Member
|
M Member
Iscritto: Mar 2004
Posts: 8,347 Mi piace: 4 |
Però mi sembra che l'errore lo conosciamo, nella forma del parametro epsilon.
"Data speak for themselves" -Reverend Thomas Bayes 1702-1761 P(Ai|E)=(P(E|Ai)P(Ai))/P(E)
|
|
|
|
|
Iscritto: Dec 2009
Posts: 1,019 Mi piace: 1
Member
|
Member
Iscritto: Dec 2009
Posts: 1,019 Mi piace: 1 |
Si, ma mi riferivo ai possibili errori nella costruzione della carta della pericolosità sismica e del relativo sviluppo della disaggregazione (dati di base per la sua costruzione e del loro mancato aggiornamento periodico, legge di attenuazione, errori nella valutazione della magnitudo massima osservata, ecc.)
Inizialmente eseguivo le verifiche facendo riferimento alla M delle ZS poi ho iniziato ad utilizzare la disaggregazione e percentili generalmente elevati, ma ad oggi i dubbi sono molti!
In relazione all’utilizzo della M delle ZS credo che il loro utilizzo sia inopportuno nella maggior parte dei casi (forse sarebbe idoneo per le classi d’uso IV), è come mettere i freni di una vettura di F1 su un’utilitaria……aumenta la sicurezza ma il suo incremento non giustifica il costo! (Se poi con l’utilitaria ci vado a fare le corse le cose cambiano). Per quanto riguarda l’utilizzo di percentili molto alti probabilmente il discorso è meno estremo ma analogo!
Il problema in realtà è la norma che indica percorsi forse prematuri e metodologie poco collaudate (analogamente agli studi di RSL), nell’incertezza ci troviamo costretti ad essere molto prudenti....ma credo che il rischio di esagerare in sicurezza sia elevato.
La Luna piena minchionò la Lucciola - Sarà l'effetto dell'economia, ma quel lume che porti è deboluccio... - Sì, - disse quella - ma la luce è mia! (Trilussa)
|
|
|
|
|
Iscritto: Mar 2004
Posts: 8,347 Mi piace: 4
M Member
|
M Member
Iscritto: Mar 2004
Posts: 8,347 Mi piace: 4 |
Si, ma mi riferivo ai possibili errori nella costruzione della carta della pericolosità sismica e del relativo sviluppo della disaggregazione (dati di base per la sua costruzione e del loro mancato aggiornamento periodico, legge di attenuazione, errori nella valutazione della magnitudo massima osservata, ecc.) Ah questi ci sono sicuramente e delle incongruenze logiche si osservano regolarmente costruendo i modelli per la RSL. Credo che la strategia migliore sia sempre parlarne con il progettista, oppure fornire in relazione più di una verifica con diverso grado di cautela, dopo tutto se si tratta di strutture non siamo noi i progettisti e la scelta progettuale del margine di sicurezza non è nostra responsabilità. Basta metterlo in chiaro.
"Data speak for themselves" -Reverend Thomas Bayes 1702-1761 P(Ai|E)=(P(E|Ai)P(Ai))/P(E)
|
|
|
|
|
Iscritto: Dec 2009
Posts: 1,019 Mi piace: 1
Member
|
Member
Iscritto: Dec 2009
Posts: 1,019 Mi piace: 1 |
Condivido anche se con alcuni dubbi quali: la possibile mancanza di sensibilità del progettista in relazione al tema e la possibilità che quando eseguiamo le verifiche a liquefazione (così come le verifiche di stabilità di versanti) vestiamo i panni di progettista per quel tipo di verifica.
Per cercare di evitare di eccedere in cautela potrebbe essere utile cambiare la prospettiva con cui analizziamo i risultati delle verifiche a liquefazione. Cerco di spiegarmi anche se inesperto in materia e mutuando un concetto (credo) utilizzato molto nel campo delle opere idrauliche. Invece di analizzare semplicemente il risultato (resistenze/azioni) potrebbe essere utile associare a questo il concetto di Rischio residuo inteso come "probabilità di fallanza di un’opera progettata per fronteggiare un evento calamitoso di tempo di ritorno Tr (anni) durante la sua vita tecnica n (anni)". Ottenuto il risultato della verifica a liquefazione se accanto dovessimo associare anche il valore del rischio residuo sarebbe per noi molto più semplice utilizzare i valori medi (o modali?) di M derivati dalla disaggregazione, saremmo meno predisposti ad eccedere in sicurezza poiché è espresso chiaramente anche il rischio del possibile insuccesso di quella verifica per quel tempo di ritorno. Altro aspetto positivo si rendono consapevoli del problema il progettista ed il committente.
La Luna piena minchionò la Lucciola - Sarà l'effetto dell'economia, ma quel lume che porti è deboluccio... - Sì, - disse quella - ma la luce è mia! (Trilussa)
|
|
|
|
|
Iscritto: Mar 2004
Posts: 8,347 Mi piace: 4
M Member
|
M Member
Iscritto: Mar 2004
Posts: 8,347 Mi piace: 4 |
AD, non sono sicuro di avere compreso bene, cosa intendi per rischio residuo? se intendi il margine di rischio che rimane a seguito delle opere di mitigazione, di quali opere di mitigazione parliamo? Pali di sabbia, addensamento... Altrimenti il concetto di rischio residuo non ha tanto senso.
L'analisi probabilistica è insita nell'analisi di liquefazione poiché l'ag e la Mw vengono valutate (generalmente) in base al probabilismo sismotettonico.
Con il progettista dovremmo discutere, fissato un range che va dalla Mw media di disaggregazione alla Mw massima, quale margine di sicurezza qualitativo adottare. Altrimenti semplicemente fornigli due o tre verifiche con Mw nel range e fare decidere a lui, se la verifica di liquefazione è eseguita per un progetto di costruzione non possiamo essere noi i progettisti, a meno che siamo anche geometri, architetti o ingegneri abilitati.
Un caso a parte potrebbe essere proprio quello delel opere di mitigazione. In questo caso, forse potremmo anche noi essere nominati progettisti, trattandosi di opere o interventi geotecnici.
"Data speak for themselves" -Reverend Thomas Bayes 1702-1761 P(Ai|E)=(P(E|Ai)P(Ai))/P(E)
|
|
|
Link Copiato negli Appunti
|
Forum34
Discussioni21,054
Post147,817
Membri18,135
| |
Massimo Online6,195 Dec 9th, 2025
|
|
|
|