Le grandezze fisiche sono: Le proprietà fisiche misurabili di un sistema
Due grandezze fisiche eterogenee: Non sono direttamente confrontabili
Le grandezze fisiche derivate sono: Grandezze definite mediante una formula applicata a grandezze fondamentali Una grandezza vettoriale: Si caratterizza con intensità, direzione e verso Per una determinata grandezza: Per un determinato sistema di unità di misura, esiste una sola unità di misura Nei sistemi scientifici: La grandezza massa [M] è una grandezza fondamentale, mentre la grandezza forza [F] è una grandezza derivata Il Sistema Internazionale definisce: Le unità di misura di sette grandezze fondamentali Il metro, nel S.I., a partire dal 1983, è definito come: La lunghezza del tragitto compiuto dalla luce nel vuoto in un intervallo di tempo di 1/299792458 di secondo Un petametro (Pm) è pari a: 10^30 (fm) femtometri Grandezze eterogenee possono essere: Solo moltiplicate e divise cambiando l'u.d.m. Con il Nuovo Approccio la Comunità Europea: Demanda agli Enti di normazione il compito di definire le norme "armonizzate", le specifiche tecniche necessarie per l'attuazione delle direttive CEN, CENELEC ed ETS sono: Enti di Normazione La marcatura CE: Attesta la conformità ai requisiti essenziali delle direttive europee L'approccio modulare della marcatura CE: Prevede diversi livelli di controllo, a seconda della pericolosità del prodotto e dei rischi ad esso associati Gli organismi notificati sono: Organismi incaricati dai Governi degli Stati membri di verificare la conformità alle direttive di prodotti, servizi e processi Gli organismi notificati hanno l'incarico di: Verificare la conformità dei prodotti, dei servizi e dei processi rispetto ai requisiti fissati dalle direttive Quando il legislatore non ritiene sufficiente la "dichiarazione di conformità" rilasciata dal fabbricante: Viene richiesto l'intervento degli organismi notificati, indipendenti e competenti, che verificano la conformità I tre tipi fondamentali di certificazione sono: Certificazione di prodotto, di qualità aziendale e del personale Il CEI rappresenta: Comitato Elettrotecnico Italiano Le norme tecniche pubblicate dal CEI stabiliscono: I requisiti fondamentali che devono avere materiali, macchine, apparecchiature, installazioni e impianti elettrici ed elettronici. Il Sistema Nazionale di Taratura (SNT): Definisce gli Istituti Metrologici Primari ed i campioni nazionali delle unità SI INRIM ed ENEA sono: Istituti Metrologici Primari La differenza tra un'attività di taratura e un'attività di prova consente nel fatto che: La taratura stabilisce la relazione tra il valore indicato da uno strumento di misura ed il corrispondente valore noto della grandezza da misurare, mentre una prova utilizza lo strumento di misura per determinare il valore di una grandezza I principali Organismi per l'attività di normazione in Italia sono: UNI e CEI Accredia svolge attività di: Accreditamento Nel diagramma di flusso per la scelta del processo di taratura, l'esame dei risultati è: Successivo alla taratura Una misura può essere considerata critica se: Si riferisce ad una caratteristica fondamentale del prodotto ed è determinante per la sua qualità La norma ISO che definisce gli intervalli di taratura delle apparecchiature è la: ISO 10012/1 Si conviene che l'incertezza dello strumento debba essere tale da garantire che: L'incertezza della misura sia inferiore ad 1/3 di quella ammessa dal processo La taratura delle apparecchiature va eseguita: Ad intervalli opportunamente prestabiliti. I presupposti del C.W.Q.C. sono: Ispirati ad una visione olistica della Qualità La priorità assoluta dell’azienda è: La soddisfazione cliente consolidato I circoli della qualità sono: Gruppi di risorse umane aziendali che si scambiano conoscenze ed esperienze Per il primo principio del C.W.Q.C., il reparto/ufficio a valle è: Il cliente del reparto/ufficio a monte Il secondo principio del C.W.Q.C. afferma che: La qualità genera produttività quando genera valore per il cliente Il quarto principio del C.W.Q.C. afferma che: L'attività di formazione e addestramento sulle tecniche del controllo qualità deve essere accurata, continua e riguardare tutto il personale dell’azienda L'approccio bottom-up previsto dal quinto principio del C.W.Q.C. consente di: Far maturare le decisioni dai livelli più bassi a quelli più alti della gerarchia aziendale Il Just in time prevede: Produrre i prodotti finiti appena in tempo per consegnarli, i semilavorati e i sottoassiemi appena in tempo per montarli; rifornirsi dei materiali di acquisto appena in tempo per utilizzarli Il Just in time implica il passaggio: Dalla produzione che determina il flusso dei materiali (push), al flusso dei materiali che comanda la produzione (pull) La produzione "dock to factory floor" prevede che le materie prime: Passino "dalla banchina al pavimento del reparto di produzione", senza passare attraverso il magazzino. Il Total Quality Management rappresenta: Un'approccio olistico al concetto di Qualità aziendale Nel Total Quality Management: Ogni analisi della situazione ed ogni azione di miglioramento deve essere basata su dati oggettivi, e non su sensazioni Il Kaizen è: La strategia del rinnovamento a piccoli passi, da farsi giorno dopo giorno, con gradualità e continuità La teoria delle S” riguarda: L'ingegnerizzazione della postazione di lavoro Nell'ottica del Kaizen: La soddisfazione del cliente è la misura della qualità Il ciclo di Deming è: Un processo di miglioramento continuo mediante applicazione ciclica delle fasi Plan, Do, Check, Act Nella fase "Check" del ciclo di Deming: Si confrontano i risultati, misurati e raccolti nella fase del Do con i risultati attesi, obiettivi del Plan Nella fase "Act" del ciclo di Deming: Si applicano le azioni migliorative e correttive e si consolidano le best practices Il DMAIC è: Uno strumento di gestione utilizzato per migliorare, ottimizzare e stabilizzare i processi di un'organizzazione Le fasi del DMAIC sono: Define, Measure, Analyze, Improve, Control. La misura è: Il valore, contraddistinto da un numero reale, un intervallo di incertezza ed un'unità di riferimento, che viene assegnato ad una grandezza mediante azione di misurazione Il misurando è: La grandezza della quale si intende ottenere la misura L'incertezza è: L’ampiezza dell'intervallo di valori entro il quale è probabile che ricada la misura L'incertezza viene determinata: In base alla distribuzione statistica di un campione virtualmente infinito di misure del misurando L'accuratezza e la ripetibilità: Sono indipendenti: una misura accurata può non essere ripetibile e viceversa Il valore vero di una misura: Deve comunque essere considerato affetto da incertezza L'incertezza del valore vero: Può essere assunta come l'incertezza dello strumento campione con il quale tale valore viene determinato, a determinate condizioni di contorno Il metodo indiretto è il metodo nel quale la misura è ottenuta: Misurando una o più grandezze legate funzionalmente al valore del misurando, ma non omogenee alla grandezza d'interesse La misura della massa di un oggetto tramite una bilancia a bracci, usa il metodo: Per confronto Nel metodo di zero, il valore del misurando è determinato: Variando una o più grandezze di valore noto, collegate al misurando da una relazione nota, fino ad ottenere una condizione di equilibrio. È ragionevole ritenere che il valore medio di un insieme di N misure rappresenti: La stima migliore del vero valore della grandezza in esame La varianza campionaria per un elevato numero di misure, è definibile come: Il valore medio del quadrato delle deviazioni rispetto al valor medio La deviazione standard è: Un indice appropriato della dispersione delle misure attorno al valore medio Prima di costruire un istogramma delle osservazioni è necessario definire: I valori massimo e minimo tra le N misure della grandezza e l'ampiezza degli intervalli di osservazione Un istogramma delle osservazioni rappresenta su un grafico: Il numero delle osservazioni relative a ciascun intervallo, oppure la corrispondente frequenza La somma di tutte le frequenze di occorrenza rappresentate su un istogramma delle osservazioni è pari: A uno Se il numero N di osservazioni tende all'infinito: L’istogramma tende ad assumere un aspetto continuo L'integrale tra meno infinito e più infinito della funzione densità di probabilità è pari: A uno Una curva gaussiana è completamente descritta mediante: Media e varianza Secondo il teorema del limite centrale: La somma di n variabili casuali con media e varianza finite tende a una distribuzione normale al tendere di n all'infinito. Nell'esempio numero 1 (esempio di costruzione di un istogramma) la barra alla quale corrisponde la massima frequenza assoluta è: Da 3 a 6 Nell'esempio numero 1 (esempio di costruzione di un istogramma) la barra alla quale corrisponde la massima frequenza relativa è: Fino a 1 In una tavola delle aree di probabilità sotto la distribuzione normale standard, i valori nella prima colonna (z) rappresentano: Il valore in corrispondenza del quale, nelle due colonne successive, si ricava la probabilità che x ricada tra 0 e z e la probabilità che x sia maggiore di z Nel calcolo del massimo scarto quadratico medio, se la probabilità fosse stata del 40% in luogo dell'80%, avremmo avuto un valore del massimo s.q.m. pari a: 96.1538 Nel calcolo del massimo scarto quadratico medio: La probabilità che il valore Z sia compreso tra 210 e 260 è uguale alla probabilità che il valore Z sia minore di 210 Nel calcolo della probabilità che sia X ≤ limite, la probabilità che X sia minore di un valore maggiore o uguale alla media è: Maggiore o uguale a 0,5 Nel calcolo della probabilità che sia X ≤ limite, la probabilità P(X minore o uguale 90) sarebbe stata: Maggiore della probabilità assegnata P(X minore o uguale 80) e maggiore di 0,5 Nella costruzione dell'intervallo di confidenza dati la media e lo scarto quadratico medio, all'aumentare della numerosità del campione: L'intervallo di confidenza di restinge Nella costruzione dell'intervallo di confidenza dati la media e lo scarto quadratico medio, all'aumentare dello scarto quadratico medio: L'intervallo di confidenza si allarga Nella costruzione dell'intervallo di confidenza dati la media e lo scarto quadratico medio, se si ammette una probabilità del 90% in luogo del 99%:L'intervallo di confidenza si allarga. La norma UNI CEI ENV 13005 è la: Guida all’espressione dell’incertezza di misura L'incertezza di misura determina: La semiampiezza dell'intervallo di valori entro il quale è ragionevolmente compresa la misura Sono di categoria A: Le incertezze valutate per mezzo dell’analisi statistica di serie di osservazioni L'incertezza di categoria A viene assunta pari: Allo scarto tipo sperimentale della media All'aumentare del numero N delle misurazioni effettuate è possibile: Ottenere una tendenziale riduzione dell’incertezza in ragione di un fattore pari alla radice quadrata di N L'incertezza di categoria B relativa alla variabile X si valuta: In base ad un giudizio scientifico su tutte le informazioni utili sulla possibile variabilità di X L'incertezza globale si calcola come: Radice quadrata della sommatoria dei quadrati delle incertezze di categoria A eB L'incertezza estesa si calcola: Moltiplicando l'incertezza per il fattore di copertura k Gli errori casuali: Sono responsabili della variabilità dei valori misurati intorno ad un certo valor medio a parità di condizioni sperimentali Gli errori sistematici: Sono costanti in entità e mantengono lo stesso segno. Nella pratica sperimentale è possibile stimare direttamente: Solo il valore minimo e il valore massimo della misura Le cifre significative con le quali ha senso esprimere il valor medio dipendono: Dal valore delll'incertezza Una misura indiretta si effettua: Conoscendo il legame funzionale tra la grandezza X e le grandezze Xi , dunque effettuando le misure Xi e calcolando la misura X L’incertezza assoluta su una somma è data: Dalla somma delle incertezze assolute sugli addendi L’incertezza assoluta su una differenza è data: Dalla somma delle incertezze assolute su minuendo e sottraendo L’incertezza assoluta sul prodotto di a per b è data: Dalla somma del prodotto di a per l'incertezza di b e del prodotto di b per l'incertezza di a Nell'espressione dell'incertezza assoluta sul prodotto, il termine che contiene il prodotto tra le incertezze sui fattori: Si trascura, in quanto prodotto tra due valori entrambi con ordine di grandezza notevolmente minore rispetto al valore dei fattori L'incertezza relativa su una grandezza che è combinazione di prodotti e quozienti fra due o più grandezze è pari a: La somma delle incertezze relative sulle singole grandezze Per la determinazione della cifra successiva all'ultima cifra derivante dalla lettura di uno strumento digitale, avremo una distribuzione di probabilità: Uniforme a valore costante Nel caso di una funzione densità di probabilità uniforme, lo scarto quadratico medio è pari a: Semiampiezza dell'intervallo diviso radice di tre. Un sensore: È un elemento del trasduttore Si definisce sensore: Un dispositivo in grado di rilevare una grandezza fisica e di fornire in uscita un'altra grandezza fisica Un trasduttore è: Un dispositivo in grado di rilevare una grandezza fisica e trasformarla in una grandezza di natura elettrica Un circuito di condizionamento del segnale ha il compito di: Portare il segnale in uscita dal sensore/trasduttore in un formato compatibile con il dispositivo di elaborazione che lo segue I trasduttori attivi: Forniscono una grandezza elettrica senza consumo di energia esterna I trasduttori con principio di funzionamento resistivo, capacitivo, induttivo, si basano: Sulla variazione della resistenza, capacità, induttanza del sensore per effetto dell'azione del misurando Le grandezze continue: Hanno un andamento nel tempo descritto da una funzione continua Il teorema del campionamento afferma che per campionare un segnale senza perdita di informazioni: È sufficiente una frequenza di campionamento pari almeno al doppio della massima frequenza del segnale I trasduttori digitali: Hanno una risoluzione limitata per effetto della quantizzazione L'errore di quantizzazione: È inferiore alla metà del valore che si ottiene dividendo l'ampiezza dell'intervallo dei valori in uscita per 2 elevato al numero di bit della codifica. Se la caratteristica di trasferimento di un trasduttore di precisione è lineare: La variazione della grandezza d'uscita è direttamente proporzionale a quella d'ingresso La caratteristica statica di un trasduttore si ottiene: Variando molto lentamente la variabile di ingresso del sensore e registrando la corrispondente variabile di uscita Il campo di misura di un trasduttore è: La differenza tra il valore massimo e il valore minimo della grandezza in ingresso, affinché siano garantite le prestazioni del trasduttore La linearità: È il parametro che evidenzia l’errore tra la caratteristica ideale teorica e la reale curva caratteristica del trasduttore. L'errore di offset è: Il valore che assume l’uscita del trasduttore quando la grandezza da misurare è nulla Si parla di isteresi quando la caratteristica del trasduttore: È differente a seconda che la variazione del misurando stia avvenendo in aumento, da un valore più alto ad uno più basso, o viceversa in diminuzione Un trasduttore offre buona ripetibilità se: È molto preciso Il comportamento dinamico di un trasduttore si manifesta quando: La grandezza di ingresso varia rapidamente Il tempo morto è: Il tempo intercorrente tra l’applicazione dell’ingresso e l'istante in cui il sistema raggiunge il 5% del valore di regime Un elevato fattore di smorzamento: Limita la sovraelongazione e il tempo di assestamento. Una forza di trazione su un elemento elastico ne provoca: L'allungamento e l'assottigliamento La massa sismica è: La massa inerziale che viene accelerata in un accelerometro La resistività di un conduttore varia con la temperatura in ragione: Dell'agitazione termica degli atomi del reticolo cristallino Il gauge factor o strain factor determina: Il rapporto tra la variazione relativa della resistenza e la variazione relativa di lunghezza del conduttore La piezoelettricità è conseguenza: Dell'addensamento di ioni di cariche opposte sulle facce opposte di un cristallo Affinché si generi l'effetto Seebeck, è necessario realizzare: Due giunzioni tra due elementi conduttori di materiali diversi, a diverse temperature La capacità di un condensatore è: Direttamente proporzionale alla superficie delle armature e inversamente proporzionale alla distanza tra le armature Spostando il nucleo ferromagnetico all’interno di una bobina si ottiene: La variazione dell'induttanza per variazione della permeabilità magnetica Nei trasformatori differenziali la variazione della posizione si traduce: In uno spostamento del nucleo ferromagnetico Nel partitore di tensione: La posizione di un cursore determina la ripartizione della resistenza di un conduttore. Un potenziometro è, sostanzialmente: Un partitore resistivo di tensione La risoluzione di un potenziometro a filo dipende: Dal numero delle spire del filo avvolte sul supporto isolante In un trasformatore differenziale, variando la posizione del nucleo rispetto ai due avvolgimenti secondari: Si modificano i valori dei coefficienti di mutua induzione per cui le due tensioni, non uguagliandosi più, risultano in una tensione all'uscita Spostando il nucleo ferromagnetico all’interno di una bobina si ottiene: La variazione dell'induttanza per variazione della permeabilità magnetica La sensibilità di un trasformatore differenziale è data: Dal rapporto tra valore della tensione di uscita nelle condizioni di spostamento a fine corsa e la tensione di alimentazione Un encoder è: Un componente elettromeccanico in grado di convertire in un segnale elettrico digitale la posizione angolare del suo asse rotante Un encoder si dice assoluto quando: Ad ogni posizione dell'albero corrisponde un valore ben definito dell’uscita digitale La risoluzione di un encoder assoluto dipende: Dal numero di tracce circolari concentriche del disco Il principale vantaggio degli encoder incrementali consiste: Nella riduzione del numero di fotosensori Una dinamo tachimetrica utilizza: Un sistema a spazzole e collettore come le convenzionali macchine a corrente continua. I termoresistori sono componenti nei quali: La variazione della resistenza è una funzione non lineare della variazione di temperatura La caratteristica dei termistori NTC: Ha andamento esponenziale decrescente su piccoli intervalli di temperatura Il pregio principale dei termistori è costituito: Dalla elevatissima sensibilità Il principio di trasduzione delle termocoppie è: L'effetto Seebeck In confronto ai termistori e ai termoresistori, le termocoppie hanno: Una minore sensibilità Il “gauge factor” o “strain factor” è: Il rapporto tra la variazione relativa della resistenza e la variazione relativa di lunghezza del conduttore Il principio di trasduzione degli estensimetri è: La piezoresistenza Nell'utilizzo degli estensimetri, la variazione della temperatura ambiente: Può introdurre un errore nella stima della variazione relativa di resistenza Il primario di un trasformatore voltmetrico va inserito: In parallelo alla linea della quale si intende ridurre, quindi misurare la tensione Il rapporto di trasformazione effettivo di un trasformatore amperometrico è molto vicino a quello nominale: Se il trasformatore funziona in condizioni prossime al funzionamento in cortocircuito La corrente elettrica può stabilirsi esclusivamente: In un circuito chiuso n un circuito, si dice nodo: Un punto in cui confluiscono più rami Due o più componenti in serie sono collegati: In modo da formare un percorso unico per la corrente elettrica che li attraversa La resistenza totale di n resistori in serie è uguale: Alla somma delle resistenze di ciascun resistore Due o più componenti in parallelo sono collegati: In modo che siano sottoposti tutti alla stessa tensione La resistenza totale di n resistori in parallelo è uguale: Ad una resistenza il cui inverso è pari alla somma degli inversi delle resistenze degli n resistori La prima legge di Kirchoff dice che: Per ciascun nodo deve risultare nulla la somma delle correnti entranti e uscenti La seconda legge di Kirchoff dice che: La somma delle tensioni, percorrendo la maglia chiusa, è nulla La resistenza del bipolo equivalente di Thevenin viene calcolata: Cortocircuitando i generatori di tensione e aprendo eventuali generatori di corrente nella parte di circuito sostituita dal bipolo La tensione del generatore del bipolo equivalente di Thevenin è: Quella che si misurerebbe fra i punti A e B a vuoto con uno strumento ideale. All'atto dell'inserzione del voltmetro, possiamo vedere il circuito come: Un bipolo equivalente di Thevenin, al quale il voltmetro risulta collegato in parallelo L'effetto di carico strumentale nel caso dell'inserzione del voltmetro è dovuta: Alla corrente circolante nel ramo del voltmetro, posto in parallelo al bipolo equivalente che rappresenta il circuito Sostituendo un voltmetro con resistenza interna di 1 megaohm con uno da 5 megaohm si ottiene: Una riduzione dell'errore assoluto e relativo, tanto più sensibile quanto minore è la resistenza interna del bipolo equivalente Un voltmetro ideale ha: Resistenza interna tendente all'infinito La misura della corrente circolante in un ramo di una rete elettrica si effettua: Connettendo un amperometro in serie sul ramo stesso L'effetto di carico strumentale nel caso dell'inserzione dell'amperometro è dovuta: Alla caduta di tensione ai capi dell'amperometro, che altera la tensione ai capi del ramo cui è collegato Sostituendo un amperometro con resistenza interna di 0,1 ohm con uno da 0,01 megaohm si ottiene: Una riduzione dell'errore assoluto e relativo, tanto più sensibile quanto maggiore è la resistenza di carico Un amperometro ideale ha: Resistenza interna tendente a zero La portata di uno strumento è: Il massimo valore della grandezza che uno strumento può misurare correttamente senza subire danni Se uno strumento è di classe 0.5 vuol dire che: L'errore strumentale è inferiore allo 0.5% del valore presunto esatto. In regime alternato sinusoidale, in un circuito puramente resistivo: Tensione e corrente sono grandezze tra loro direttamente proporzionali La potenza elettrica istantanea è data: Dal prodotto tra i valori della tensione e della corrente in un determinato istante Il valore efficace di un segnale di tensione o di corrente elettrica è pari: Al valore di cresta del segnale diviso per la radice quadrata di due In un circuito reale, non puramente resistivo ma con componenti reattive, la potenza media nel periodo è pari: Al prodotto tra i valori efficaci di tensione e corrente per il coseno dell'angolo di fase tra tensione e corrente I wattmetri analogici si basano: Su circuiti moltiplicatori, che ricevono le letture di tensione e corrente, dunque ne fanno il prodotto medio I wattmetri digitali: Elaborano segnali campionati mediante circuiti di digital signal processing dedicati oppure tramite sistemi di acquisizione dati gestiti da computer Inserendo il circuito voltmetrico di un wattmetro a valle, ossia sulla parte di linea amperometrica che va al carico: La corrente misurata nel circuito amperometrico risulta diminuita della piccola corrente che si chiude nel circuito voltmetrico Inserendo il circuito voltmetrico di un wattmetro a monte, ossia sulla parte di linea amperometrica opposta a quella che va al carico: La tensione misurata nel circuito voltmetrico risulta diminuita della piccola caduta di potenziale sul circuito amperometrico La scelta dell'inserzione del circuito voltmetrico del wattmetro a valle o a monte: Dipende dalle condizioni di funzionamento: alta tensione e bassa corrente, si collega a monte, bassa tensione ed alta corrente si collega a valle L'errore di fase assume valori rilevanti quando: L'angolo di fase cresce oltre un quarto di pi greco. L'oscilloscopio è: Un dispositivo che consente di visualizzare l'andamento nel tempo di segnali elettrici L'oscilloscopio consente, tra l'altro, di: Localizzare avarie in un circuito Un oscilloscopio può rappresentare: Un gran numero di fenomeni, inserendo il trasduttore adeguato Le principali tipologie di oscilloscopi sono: Analogici / Digitali Il CRT è: Un tubo a raggi catodici La deflessione verticale è effetto di: Una forza prodotta da un campo elettrico variabile in funzione della misura nel tempo del segnale da esaminare Il generatore di segnali a dente di sega interno all'oscilloscopio analogico: Controlla il sistema di deflessione orizzontale Utilizzando un oscilloscopio digitale: Il segnale subisce una conversione analogica/digitale e una conversione digitale/analogica La memoria di un oscilloscopio digitale: Viene utilizzata per memorizzare i valori del segnale convertiti in formato digitale La risoluzione di un oscilloscopio digitale dipende: Dalla velocità di conversione analogica/digitale. Per utilizzare in sicurezza l'oscilloscopio, è necessario: Utilizzare l'alimentazione con messa a terra Le sonde vanno collegate: Ai connettori BNC Il controllo TIMEBASE: Consente di modificare il fattore di scala utilizzato dal sistema orizzontale Una sonda marchiata con 10X o 100X: Attenua il segnale di 10 o 100 volte affinché possa essere acquisito correttamente La compensazione della sonda: Serve a compensare l'effetto delle capacità parassite che intervengono all'aumentare della frequenza La banda passante di un oscilloscopio: Specifica il campo di frequenza che l'oscilloscopio può misurare con precisione Il tempo di salita di un oscilloscopio: Impedisce di visualizzare impulsi che si sviluppano in un tempo minore di esso La sensibilità verticale indica: La variazione di ampiezza minima del segnale che può essere visualizzata dallo strumento La velocità di deflessione orizzontale di un oscilloscopio analogico dipende: Dal generatore di segnali a dente di sega interno all'oscilloscopio La velocità di campionamento di un oscilloscopio digitale indica: Quanti campioni per secondo vengono catturati dal sistema di acquisizione dati e convertiti in digitale. Un segnale discreto: Varia nell'insieme dei numeri reali solo in corrispondenza di determinati istanti di tempo Un segnale è quantizzato quando: Tra due suoi possibili valori consecutivi è presente un intervallo di altri valori che esso non può assumere Con l'acronimo DAC si indica: Un convertitore di segnali digitali in segnali analogici Il Teorema del campionamento di Nyquist-Shannon afferma che: Per campionare senza perdita di informazioni un segnale a banda limitata è sufficiente una frequenza di campionamento >= del doppio della massima frequenza del segnale Digitalizzare dati con la frequenza di campionamento pià alta possibile è: Una scelta che ha un costo, ma che può rivelarsi opportuna in determinati casi La quantizzazione consiste nel: Ridurre il numero di valori che la grandezza può assumere Il principale vantaggio della quantizzazione silenziata è: L'annullamento dell’effetto della tensione di rumore Per ridurre l'errore di quantizzazione è opportuno: Aumentare il numero di livelli di quantizzazione e ridurre il Voltage Full Scale Range Nella codifica Gray: Livelli di quantizzazione contigui distano sempre al massimo un solo bit L'ampiezza di un quanto è: Direttamente proporzionale al Voltage Full Scale Range. Il Bus Real-Time System Integration (RTSI) serve a: Sincronizzare i segnali tra diversi dispositivi DAQ interfacciati allo stesso computer Il circuito sample & sold serve a: Mantenere costante la tensione da convertire per tutta la durata del periodo di campionamento Il multiplexer è: Un selettore che collega i diversi canali d’ingresso, ciclicamente, uno per volta, all’amplificatore dello strumento La frequenza di campionamento consentita sul singolo segnale di ingresso i-esimo, in un sistema ad N ingressi con l'uscita del MUX collegata ad un unico circuito S&H, è circa: Pari alla frequenza di campionamento dell'ADC divisa per N La frequenza di campionamento consentita sul singolo segnale di ingresso i-esimo, in un sistema ad N campionamento simultaneo è circa: Pari alla frequenza di campionamento dell'ADC divisa per N Un sistema di acquisizione veloce utilizza: Un S&H e un ADC per ciascun ingresso Il Direct Memory Access (DMA) prevede che: I dati vengano trasferiti direttamente dal DAQ alla memoria del computer, scavalcando il processore Un’apparecchiatura che comunica in GPIB: Può assumere i ruoli di talker, listener, controller Il software LabVIEW è: Un ambiente di sviluppo integrato per il linguaggio di programmazione visuale di National Instruments, chiamato Linguaggio G Uno strumento virtuale è: Un software che consente di simulare in tutto e per tutto l'utilizzo di uno strumento reale. La gestione a minima energia consiste: Nel sostituire alla filosofia della ricerca dei rimedi quella della rimozione delle cause che provocano gli inconvenienti L'indice di Process Capability è definito come: Il rapporto tra l'intervallo tra i due limiti di specifica (inferiore e superiore) e sei volte lo scarto quadratico medio dei risultati osservati in un campione della produzione Affinché sia possibile utilizzare l'indice di process capability: La variabile caratteristica che descrive il processo deve essere normale In una distribuzione normale la percentuale di misure che ricadono al di fuori di un campo di variabilità pari a 6σ è pari: Allo 0.27% Affinché un processo abbia migliore capacità, si richiede, in genere, che l'indice di process capability sia: Maggiore di 1.33 Il tasso di capacità, rispetto all'indice di process capability: Fornisce un'informazione più completa, in quanto misura sia la dispersione che la centratura del processo rispetto al punto medio della specifica Un tasso di capacità minore di zero indica un processo in cui: Circa la metà della quantità prodotta è non conforme e ad di fuori dei limiti di tolleranza La formula del calcolo del tasso di capacità è uguale: Al minimo tra la differenza tra limite superiore e media diviso tre volte lo scarto quadratico medio e la differenza tra media e limite inferiore diviso tre volte lo scarto quadratico medio I sei strumenti per la qualità sono: Raccolta dati, costruzione di istogrammi, analisi di Pareto, stratificazione, costruzione di diagrammi causa-effetto, individuazione delle funzioni di correlazione I dati raccolti durante un processo produttivo o al termine dello stesso: Possono assumere qualsiasi forma, non necessariamente numerica. L'indice di Process Capability è dato da: Il rapporto tra l'intervallo tra i due limiti di specifica (inferiore e superiore) e sei volte lo scarto quadratico medio dei risultati osservati in un campione della produzione L'indice di process capability è definibile se: La distribuzione che descrive il processo è gaussiana La percentuale di misure che ricadono al di fuori di un campo di variabilità pari a 6σ in una distribuzione normale è pari: Allo 0.27% L'indice di process capability richiesto affinché un processo sia considerato capace, in genere, è: Maggiore o uguale di 1.33 Affinché l'intervallo di specifica sia maggiore di 8 volte lo scarto quadratico medio: Il tasso di capacità deve essere maggiore di 1.33 In un processo con tasso di capacità minore di zero: Circa la metà della quantità prodotta è non conforme e ad di fuori dei limiti di tolleranza Il tasso di capacità è pari: Al minimo tra la differenza tra limite superiore e media diviso tre volte lo scarto quadratico medio e la differenza tra media e limite inferiore diviso tre volte lo scarto quadratico medio Rispetto all'indice di process capability, il tasso di capacità: Tiene conto sia dell'accuratezza e anche della precisione Nell'esercizio A, sel'intervallo di specifica fosse più ampio: Si avrebbe maggiore probabilità di avere il processo in controllo statistico Nell'esercizio B, il primo processo ha migliore process capability rispetto al secondo perché: L'intervallo di specifica è più ampio. L'indice di Process Capability viene calcolato come: Il rapporto tra l'intervallo tra i due limiti di specifica (inferiore e superiore) e sei volte lo scarto quadratico medio dei risultati osservati in un campione della produzione Affinché abbia senso utilizzare l'indice di process capability per qualificare il processo è necessario che: La distribuzione dei risultati del processo sia normale La percentuale di misure che ricadono al di fuori di un campo di variabilità pari a 6σ, in una distribuzione normale, è pari a: 0,27% L'indice di process capability denota un processo con buona capacità se il suo valore è: Maggiore di 1.33 Il tasso di capacità, rispetto all'indice di process capability: Fornisce un'informazione più completa, in quanto misura sia la dispersione che la centratura del processo Un tasso di capacità minore di zero indica un processo in cui: Circa la metà della quantità prodotta è non conforme e al di fuori dei limiti di tolleranza Il tasso di capacità, si calcola come: Il minimo tra la differenza tra limite superiore e media diviso tre volte lo scarto quadratico medio e la differenza tra media e limite inferiore diviso tre volte lo scarto quadratico medio Una buona process capability si riflette, dal punto di vista grafico, in una distribuzione: Centrata rispetto ai limiti di specifica e stretta rispetto alla larghezza dell'intervallo di specifica Nell'esempio dei veicoli, che viaggiano col centro a una distanza di 50 cm dalla linea di mezzeria, il tasso di capacità garantisce il controllo a 6 sigma ma non a 8 sigma per: Soltanto la city car Quando il processo è perfettamente centrato e la distribuzione è normale: Gli indici Cp e Cpk sono uguali tra loro. L'istogramma è: Una rappresentazione grafica di un insieme di dati nella quale l'ascissa indica i valori misurati e l'ordinata la frequenza con cui essi si presentano entro un predefinito intervallo di misura In un istogramma normalizzato l’area A di una barra: Corrisponde alla frequenza relativa di accadimento degli eventi nella classe considerata L'area sottesa dall'istogramma normalizzato: Corrisponde alla sommatoria delle frequenze relative di accadimento degli eventi nelle classi considerate, dunque è uguale a 1 Le classi di un istogramma: Sono intervalli sull'asse delle ascisse aventi tutti la medesima ampiezza Un istogramma bimodale: Induce a desumere il fatto che i dati non sono omogenei per modalità di raccolta, per origine o per altre cause Un istogramma con skew positivo: Indica che un evento è intervenuto nel processo, ad esempio è variato il valore medio di un parametro di influenza Un istogramma con una distribuzione "stretta":Denota un processo con bassa deviazione standard Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della mediana è: 7 Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della moda è: 90 Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della media è: 41. L'istogramma è definito come: Una rappresentazione grafica di un insieme di dati nella quale l'ascissa indica i valori misurati e l'ordinata la frequenza con cui essi si presentano entro un predefinito intervallo di misura L'area A di una barra di un istogramma normalizzato: Corrisponde alla frequenza relativa di accadimento degli eventi nella classe considerata L'area sottesa dall'istogramma normalizzato: Corrisponde alla sommatoria delle frequenze relative di accadimento degli eventi nelle classi considerate, dunque è uguale a 1 Le classi di un istogramma: Sono intervalli sull'asse delle ascisse aventi tutti la medesima ampiezza Il numero più opportuno di classi per un istogramma è: Dipendente dal numro di dati da rappresentare L'ogiva relativa ad una distribuzione di frequenza cumulata si ottiene: Riportando le frequenze cumulative in corrispondenza dei valori centrali di ogni classe Il valore della frequenza riportato nell'ultima classe dell'ogiva è pari: Alla somma dei valori delle frequenze di tutte le classi dell'istogramma Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della media è: 41 Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della moda è: 90 Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della mediana è:7. Il numero di classi per la realizzazione di un'istogramma si sceglie: In funzione del numero di misure registrate L'analisi di tendenza centrale consente di stabilire se: Una distribuzione è unimodale o multimodale Un istogramma bimodale: Induce a desumere il fatto che i dati non sono omogenei per modalità di raccolta, per origine o per altre cause L'analisi visuale della variabilità si basa sul confronto tra: Le frequenze delle barre centrali e le frequenze delle barre laterali La variabilità di un istogramma è tanto maggiore: Quanto maggiore è lo scarto quadratico medio Un istogramma con skew positivo: Indica che un evento è intervenuto nel processo, ad esempio è variato il valore medio di un parametro di influenza Una piccola variabilità è indice di un processo: Con elevata process capability, se il processo è centrato In caso di tendenza multimodale, gli indici Cp e Cpk: Non sono descrittivi del processo come lo sono in caso di tendenza unimodale Se, nell'esercitazione proposta, lo scarto quadratico medio fosse stato pari alla metà di 0.2326, ossia 0,1163, l'indice Cpk sarebbe risultato: Pari al doppio di quello dell'esercitazione: sono inversamente proporzionali Se tutti i campioni ricadono entro i limiti di specifica: Il processo produttivo è capace se il tasso di capacità è definito e maggiore di 1,33. Quando si vogliono desumere da un campione informazioni relative all'intera popolazione: Il metodo di selezione del campione deve dare ad ogni elemento della popolazione una uguale probabilità di essere estratto Un tipico effetto della stratificazione è: Lo scostamento del valor medio rilevato sul campione rispetto a quello atteso per l'intera popolazione Le Tavole di Fisher - Yates: Consentono di estrarre un campione casuale da un determinata popolazione, associando i membri della popolazione con numeri casuali Una distribuzione bimodale indica che: Il campione è affetto da viziatura e non è adeguatamente rappresentativo della popolazione Il campionamento casuale semplice viene effettuato: Mediante estrazione da un'urna di biglie numerate, ciascuna collegata ad un'unità della popolazione Si effettua la selezione delle unità con probabilità differenti quando: Alcune unità statistiche apportano maggiori informazioni delle altre, quindi si vuole aumentare la probabilità che queste siano selezionate Si effettua un campionamento a due o più stadi quando: Non è disponibile una lista complessiva delle unità della popolazione, la quale risulta frazionata in più sottoinsiemi Prima di procedere al campionamento stratificato: Si suddivide la popolazione in due o più gruppi, secondo una o più caratteristiche conosciute sulle unità statistiche Il campionamento sistematico può condurre a viziatura se: L'ordine in cui le unità sono disposte in lista tende ad avere una ricorrenza associata alla caratteristica di interesse Nell'esempio di campionamento stratificato, l'aggiunta di una terza variabile classificatoria booleana (vero/falso) comporterebbe: La partizione della popolazione campione in 8 gruppi, in luogo dei 4 previsti dall'esempio. Per poter intraprendere nel modo migliore azioni che possono condurre ad un miglioramento della qualità complessiva del prodotto, è necessario: Individuare i sottoproblemi che hanno maggiore incidenza Il diagramma di Pareto è: Un grafico che rappresenta l'importanza delle differenze causate da un certo fenomeno Il diagramma di Pareto consente di: Stabilire quali sono i maggiori fattori di influenza su un dato fenomeno Il diagramma di Pareto va costruito: Riportando in ascissa l'elenco delle possibili cause e in ordinata il numero degli eventi associato ad ognuna di esse, riordinando in modo che le ordinate siano decrescenti Una volta individuata la causa maggiormente incidenza sulla qualità del prodotto: E' possibile indagare ulteriormente mediante una nuova analisi di Pareto sulle cause della causa individuata Il Principio di Pareto è: Un risultato di natura statistico-empirica, che si riscontra in molti sistemi complessi dotati di una struttura di causa-effetto Il Principio di Pareto afferma che: Circa il 20% delle cause provoca l'80% degli effetti Il Principio di Pareto può essere applicato: A sistemi socio-economici complessi L'analisi ABC: Presuppone una suddivisione degli oggetti in esame in tre categorie, in modo da permettere di valutare in modo selezionato il loro impatto Le classi dell'analisi ABC prevedono: Valore decrescente e numerosità crescente. In ogni processo la qualità misurabile è quella: Interna I diagrammi causa-effetto: Rendono riconoscibili le relazioni tra i possibili parametri di influenza e le caratteristiche qualitative dei prodotti In un diagramma causa-effetto: Le fasi della produzione sono rappresentate da linee oblique lungo le quali sono riportate le possibili cause di dispersione Le possibili cause di incertezza rappresentate nel diagramma: Possono influenzare l'effetto in modi diversi, generando ciascuna una diversa dispersione La lettura di un diagramma causa-effetto consente di: Disporre di un'analisi di base che consente di identificare i parametri d'influenza sui quali è opportuno concentrare l'analisi sperimentale Il diagramma di Ishikawa è: Uno strumento manageriale utilizzato, nel settore industriale e nei servizi, per individuare le cause più probabili di un effetto Il diagramma di Pareto e il diagramma di Ishikawa sono: Due strumenti che possono essere utilizzati congiuntamente, per identificare, mettere in ordine di rilevanza e contestualizzare i parametri di influenza Le 5 M sono: Cinque macrogruppi di parametri d'influenza Man, Machines, Materials, Methods, Milieu Le cause identificare in un diagramma di Ishikawa possono essere rappresentate: Mediante una struttura ad albero: dal tronco/processo si diramano gli ambiti/rami portanti, dai quali si diramano le cause più generiche, dalle quali si diramano le cause più specifiche Un'analisi con diagramma di Pareto può essere condotta: Nella generazione (selezione delle cause) e nell'interpretazione (assegnazione priorità alle cause) di un diagramma di Ishikawa. Un diagramma di correlazione viene costruito: Riportando in un diagramma cartesiano l'insieme di punti rappresentativi di due parametri oggetto dell'indagine La verifica dell'esistenza di correlazione con il metodo delle mediane: Si basa sull'analisi della distribuzione di punti in un piano cartesiano i cui assi coincidono con i valori di una delle cause e dell'effetto Una correlazione è positiva se: Nel diagramma di correlazione, l'addensamento dei punti si verifica nel III e I quadrante Si parla di interpolazione statistica quando: Si trova una funzione che sia in grado di rappresentare al meglio la relazione esistente tra due variabili Le variabili tipiche dell'interpolazione statistica sono: Esplicativa e dipendente Per tracciare la retta interpolante di una funzione non lineare: Si opera un'opportuna trasformazione di coordinate sugli assi delle ascisse e delle ordinate La funzione della retta interpolante: Deve minimizzare la somma dei quadrati delle differenze tra ciascun valore rilevato e il corrispondente valor teorico Il metodo dei minimi quadrati si usa per: Verificare se i punti sono rappresentativi di una curva nota, dalla quale si discostano per l'incertezza o variabilità naturale del processo Il metodo dei minimi quadrati, se è nota l'espressione analitica ma non il valore dei parametri: Consente di determinare il valore dei parametri per via analitica, utilizzando le derivate della funzione sommatoria del quadrato degli scarti Il metodo basato sull'analisi dei raggruppamenti, rispetto al metodo della sequenza delle differenze: Fornisce risultati più attendibili soprattutto quando l'intervallo in corrispondenza del quale si effettuano le misure è costante. La qualità di un bene (prodotto o servizio) è sempre relativa: Alla funzione cui esso è destinato La qualità di un bene può essere valutata in funzione: Degli scostamenti tra i valori qualitativi misurati per determinati attributi e i rispettivi valori di riferimento Il giudizio per attributi corrisponde: Ad una valutazione buono/cattivo, oppure accettazione/non accettazione Quando le prestazioni di un bene non soddisfano le attese, il danno è sopportato: Dall'utilizzatore, dal produttore e dall'intera società In regime di "total quality management", un indicatore di qualità particolarmente significativo è costituito da: Somma dei costi di normale funzionamento e di non qualità Una delle procedure di ottimizzazione parametriche più diffusa è: Quella del Robust Design Ai fini della riduzione dei guasti, non è utile: Sostituire il componente immediatamente appena si verifica il guasto L'accumulo di danneggiamento determina il guasto ed il termine della durata di funzionamento: Quando un parametro intrinseco al materiale che descrive il suo stato fisico e la sua capacità di adempiere ad una specifica funzione cade al di sotto di un valore critico Il modello di invecchiamento lineare: Assume che risorsa degradi con il tempo linearmente Con l'acronimo D.B.E. (Design Based Events) si indicano: Le sollecitazioni a regime o in condizioni transitorie o anomale che sono prevedibili in fase progettuale. I modelli di deterioramento si basano: Sulla conoscenza, su basi empiriche, della relazione stress-deterioramento come funzione del tempo e dell'ampiezza della sollecitazione Il modello di Arrhenius correla: La velocità di una reazione chimica alla temperatura assoluta tramite una funzione esponenziale Il modello di Eyring rappresenta: Una riformulazione del modello di Arrhenius, che consente di considerare ulteriori sollecitazioni oltre la temperatura Secondo il modello della potenza inversa, il tempo necessario a raggiungere il termine della vita è: Inversamente proporzionale al valore della sollecitazione elevato ad un potenza n, con n costante determinata empiricamente La Carta di Arrhenius ha come assi: Log(Durata), 1/Temperatura Se un'apparecchiatura, nel tempo, viene sottoposta a diversi regimi di sollecitazione, l'invecchiamento complessivo sarà: Pari alla somma degli invecchiamenti determinati nei diversi periodi La durata di un componente in condizioni di servizio variabili è determinabile: Quando è noto il tempo di durata di ogni sollecitazione Le caratteristiche dei componenti fisici: Cambiano nel tempo sotto l'influenza di sollecitazioni ambientali od operazionali Un componente ha raggiunto il punto finale quando: L'ammontare della modifica di un parametro funzionale sia tale da inibire il funzionamento previsto Il termine della vita, per definizione: Non è necessariamente associata ad una particolare applicazione e viene raggiunto quando la modifica del parametro funzionale porta al guasto I modelli di deterioramento si basano: Sulla conoscenza, su basi empiriche, della relazione stress-deterioramento come funzione del tempo e dell'ampiezza della sollecitazione Il modello di Arrhenius correla: La velocità di una reazione chimica alla temperatura assoluta tramite una funzione esponenziale Il modello di Eyring rappresenta: Una riformulazione del modello di Arrhenius, che consente di considerare ulteriori sollecitazioni oltre la temperatura La Carta di Arrhenius ha come assi: Log(Durata), 1/Temperatura Secondo il modello della potenza inversa, il tempo necessario a raggiungere il termine della vita è: Inversamente proporzionale al valore della sollecitazione elevato ad un potenza n, con n costante determinata empiricamente Le prove di vita accelerata su un componente sono: Processi che lo portano rapidamente ad una capacità funzionale rappresentativadi quella che si avrebbe con invecchiamento naturale per un lungo periodo di tempo Se un'apparecchiatura, nel tempo, viene sottoposta a diversi regimi di sollecitazione, l'invecchiamento complessivo sarà: Pari alla somma degli invecchiamenti determinati nei diversi periodi La durata di un componente in condizioni di servizio variabili è determinabile: Quando è noto il tempo di durata di ogni sollecitazione La durata della vita del componente varia: Con legge esponenziale, in ragione dell’inverso della temperatura di servizio Nell'esempio di calcolo proposto, la durata in esercizio a T=55°C sarà: Compresa tra 4 e 26.7 anni. Il costo della "non qualità" di un bene è sopportato: Dall'utilizzatore, dal produttore e dall'intera società Il costo della "non qualità" va rapportato: Alla durata di vita prevista del bene Per ridurre il costo di non qualità: È utile investire nella progettazione Tutte le produzioni rientranti integralmente nel range di ammissibilità: Sono tanto migliori quanto più la media è vicina al valore obiettivo e quanto minore è la varianza Utilizzando la funzione perdita di qualità a gradino: Il bene è idoneo se il suo indice di qualità rientra nel limite di tolleranza, altrimenti un costo di non qualità costante La funzione perdita di qualità quadratica: È valida nell'ipotesi che l'indice di qualità abbia un valore obiettivo diverso da zero e che il valore della perdita sia simmetrico ai due lati dell'obiettivo Una decisione basata sulla funzione perdita di qualità è influenzata: Dalla sensibilità ai rumori e dallo scostamento della media rispetto al valore atteso Il rapporto segnale/rumore: È una grandezza numerica che mette in relazione la potenza del segnale utile rispetto a quella del rumore Un rapporto segnale/rumore tendente all'infinito determina: Un costo della non qualità tendente a zero Un rapporto segnale/rumore tendente a zero determina: Un costo della non qualità tendente a infinito. Il costo della "non qualità" di un bene è sopportato: Dall'utilizzatore, dal produttore e dall'intera società Il costo della "non qualità" è: Una componente, insieme al costo di funzionamento, del costo totale di un prodotto Il costo della "non qualità" va rapportato: Alla durata di vita prevista del bene Per ridurre il costo di non qualità: È utile investire nella progettazione Tutte le produzioni rientranti integralmente nel range di ammissibilità: Sono tanto migliori quanto più la media è vicina al valore obiettivo e quanto minore è la varianza Utilizzando la funzione perdita di qualità a gradino: Il bene è idoneo se il suo indice di qualità rientra nel limite di tolleranza, altrimenti un costo di non qualità costante La funzione perdita di qualità quadratica: È valida nell'ipotesi che l'indice di qualità abbia un valore obiettivo diverso da zero e che il valore della perdita sia simmetrico ai due lati dell'obiettivo Nell'applicazione relativa al calcolo del minimo della funzione di perdita, se il dispositivo viene fatto funzionare ad una tensione V=118V ci aspettiamo: Un costo della non qualità L3 incrementato rispetto al valore L2 di oltre l'800% Nell'applicazione relativa al calcolo del minimo della massima tolleranza ammissibile, se la tolleranza del processo è pari al 7%, il costo della non qualità sarà: Inferiore a 100 euro Nell'applicazione relativa al calcolo della percentuale di perdita economica, essa per V2 pari a 122 V sarebbe: Superiore al 300%. La definizione corrente di Qualità è: Insieme delle caratteristiche di una entità che ne determinano la capacità di soddisfare esigenze espresse ed implicite Quando i servizi siano resi in regime di monopolio reale: Non sussiste la funzione di stimolo al miglioramento continuo espletata dalla concorrenza I presupposti culturali per le scelte possono essere di tipo: Conseguenzialistico o deontologico L'approccio conseguenzialistico è orientato: Alla massimizzazione dell'utilità sociale, ossia al conseguimento della massima utilità per il maggior numero di persone L'approccio deontologico è orientato: All'individuazione e al rispetto dei diritti inalienabili dei diversi soggetti sociali, nell'ottica dell'eguaglianza Gli indicatori interni devono consentire la verifica che: Il servizio è stato realizzato secondo il progetto e che la sua erogazione avviene secondo gli standard prefissati Gli indicatori esterni: Rilevano il livello di qualità percepito dal cliente La qualità relazionale risponde alla domanda: Come si fornisce il servizio I bisogni espliciti sono quelli che: Il cliente è in grado di esprimere chiaramente, pur con il linguaggio e le forme a lui più congeniali I bisogni latenti sono quelli che: Il cliente non è in grado di dichiarare, di esprimere fino a quando non ne prova la soddisfazione e ne conosce i benefici. Con la Carta dei Servizi: Il fornitore dichiara a priori quali sono le prestazioni erogate, quale impegno assume con gli utenti e come intende operare in caso di non rispetto delle prestazioni promesse Gli indicatori di prestazione definiti nella Carta dei Servizi devono essere: Significativi, validi, rilevabili, sensibili Dire che la Carta dei Servizi deve essere dinamica significa che: Essa dovrebbe essere aggiornata e revisionata non solo in caso di significativi cambiamenti, ma anche ad intervalli periodici predefiniti L'autovalutazione consente di perseguire: La diagnosi organizzativa finalizzata al miglioramento delle performance La certificazione UNI EN ISO 9000 attesta: L'adozione di un sistema di gestione per la qualità La certificazione UNI EN ISO 9000 può essere rilasciata da: Enti di Certificazione accreditati da ACCREDIA Il metodo Servqual è: Un sistema di valutazione della qualità dei servizi sviluppatosi in ambito accademico e aziendale Il metodo Servqual definisce la Qualità del Servizio: Come divario o 'gap' tra i desideri e le percezioni dei clienti Quale di questi scostamenti non è tra quelli sulla cui rilevazione si basa il metodo Servqual: Scostamento tra il costo del servizio e l'importo che il cliente sarebbe disposto a pagare Un blue-print è: Una rappresentazione grafica in cui vengono riportate tutte le operazioni compiute dal cliente e dal personale dell'azienda durante l'erogazione del servizio. Il metodo Servqual è: Un sistema di valutazione della qualità dei servizi sviluppatosi in ambito accademico e aziendale Il metodo Servqual definisce la Qualità del Servizio: In funzione del divario o 'gap' tra i desideri e le percezioni dei clienti Il metodo Servqual non si basa su uno dei seguenti scostamenti: Scostamento tra il costo del servizio e l'importo che il cliente sarebbe disposto a pagare Si definisce blueprint: Una rappresentazione grafica in cui vengono riportate tutte le operazioni compiute dal cliente e dal personale dell'azienda durante l'erogazione del servizio Nel condurre l'indagine sperimentale per l'applicazione del sistema Servqual è necessario realizzare: Un'opportuna stratificazione del campione Aumentando la numerosità del campione: L'indagine diviene statisticamente più significativa Il PSG, nel metodo Servqual, è: Il Punteggio Servqual Globale Nel caso in cui l'aspettativa di qualità ha valore 6 e la percezione di qualità ha valore 8, il PSG è pari a: 2 Se i punteggi assoluti di aspettativa e percezione della qualità vanno da 1 a 10, il PSG è compreso tra: e +9 Una volta identificati gli indicatori esterni più critici, è opportuno individuare: Le azioni correttive da attuare. Il metodo Tenner è basato: Sul Ciclo di Deming L'acronimo PDCA sta per: Plan, Do, Check,Act Il metodo Tenner consente: La gestione globale di un processo industriale o di erogazione di un servizio La logica RADAR è un'applicazione evoluta: Del Ciclo di Deming In un modulo RADAR, le direttrici di valutazione sono: Risultati, Approccio, Sviluppo, Riesame L'assessment RADAR, sulle varie direttrici, prevede l'attribuzione: Di un punteggio discreto su 5 livelli: 0 %, 25 %, 50 %, 75 %, 100 % Il metodo ServFMEA consente di: Individuare precocemente gli eventi indesiderati più probabili, pericolosi e difficilmente rilevabili L'indice di Occorrenza rappresenta: La probabilità condizionata che si verifichi una non conformità nell'erogazione del servizio, data una specifica causa L'indice di Severità rappresenta: Il giudizio che l'analista esprime in merito alla gravità delle conseguenze di una non conformità L'indice di Rilevabilità rappresenta: La misura della probabilità che una non conformità risulti rilevabile prima che essa provochi danni. In assenza di cause speciali o errori sistematici, le variazioni nella qualità del prodotto hanno origine: Casuale In una distribuzione normale la probabilità che un risultato di misura sia compreso in un intervallo ampio 6 volte sigma intorno alla media è pari: Al 99,73% Con il "test del chi quadro" è possibile verificare che: La distribuzione dei dati rilevati sia di origine casuale La numerosità del campione di misura oltre la quale una variabilità causale genera sempre una distribuzione normale è: 30 Le carte di controllo X sono quelle che riportano in ordinate: I valori medi rilevati in corrispondenza dei valori temporali riportati sulle ascisse Le carte di controllo R sono quelle che riportano in ordinate: Gli intervalli di escursione (range) dei valori rilevati per diversi valori temporali sulle ascisse Le carte X-R sono: Due diagrammi distinti, che hanno in comune la scala delle ascisse Nelle carte X-R, gli acronimi UCL e LCL indicano: Il Limite Superiore di Controllo (LSC) e il Limite Inferiore di Controllo (LIC) Se un processo dà luogo ad una distribuzione traslata rispetto al valore atteso in direzione positiva, la probabilità che un punto cada al di fuori del Limite Superiore di Controllo (LSC) è: Superiore rispetto alla probabilità che un punto cada al di fuori del Limite Inferiore di Controllo (LIC) Nelle carte R, oltre la linea che indica l'escursione media, viene riportata una linea che indica: Il Limite Superiore di Controllo. Nelle carte di controllo X-R: Si riportano i dati di valore medio e di escursione di misure su campioni, nell'ordine di successione temporale con cui sono stati rilevati Una carta p riporta: La frazione p di elementi non conformi di una determinata produzione a partire dai dati di conteggio La distribuzione caratteristica delle frazioni di non conformi è di tipo: Binomiale I limiti di controllo di una carta p sono costanti quando: La numerosità n del campione è costante Si utilizza una carta p stabilizzata quando: La numerosità del campione per le diverse osservazioni è variabile I limiti di controllo di una carta p stabilizzata sono: LCL= -3, UCL = 3 Se il rapporto tra le non conformità rilevate su un singolo provino e il numero n di punti di rilevazione è molto piccolo: La distribuzione campionaria dei dati approssima molto bene quella di Poisson Nella distribuzione di Poisson, lo scarto quadratico medio è: Pari alla radice quadrata della media delle non conformità unitarie In una carta c revisionata si riportano: Sulle ascisse il numero ordinale del provino, sulle ordinate il numero di non conformità ad esso relative Qualora un provino evidenzi un rapporto tra non conformità e punti di rilevazione superiore al limite superiore di controllo: Lo si esclude dalla carta e si procede al ricalcolo della media delle non conformità unitarie e dei limiti di controllo superiore ed inferiore. È importante che i punti riportati sulle carte di controllo rappresentino: Sottogruppi omogenei Se una carta di controllo indica una situazione di fuori controllo, è possibile individuare pià agevolmente le cause se: I punti rappresentati appartengono a sottogruppi omogenei In una distribuzione normale, all'aumentare della numerosità del campione, i limiti di controllo: Si avvicinano alla media Una maggiore frequenza del campionamento implica: Una migliore protezione dal rischio di non individuare con immediatezza l'insorgenza di cause speciali L'esame del campione viene eseguito considerando: Il valore dei punti rappresentativi dei campioni esaminati e l'andamento della sequenza con cui si presentano Si ha una sequenza positiva di lunghezza N quando: Sulla carta sono rappresentati N punti consecutivi di valore crescente Si ha una sequenza sopramedia di lunghezza N quando: Sulla carta sono rappresentati N punti consecutivi di valore maggiore della media Le carte CUSUM, rispetto alle carte Shewhart: Consentono di percepire con immediatezza anche cause speciali tali da provocare piccole variazioni Per monitorare una causa speciale che provoca una deriva verso l'alto dell'indice controllato, si usa: Comparare l'ultimo dato cumulativo con quello di minor valore riportato sulla carta e verificare che la differenza non superi un prefissato valore La carta CUSUM modificata si usa per: Evitare, con una oculata scelta del valore K, di prendere in considerazione cause dagli effetti scarsamente rilevanti. Considerato che ogni misura è affetta da un'incertezza, la stima del misurando può essere ottenuto: Individuando la media e lo scarto quadratico medio in una serie ripetuta di misure Lo studio della process capability serve: Ad osservare il processo per valutare la capacità a garantire prodotti in specifica Un processo non può avere una buona capability se: L'incertezza di misura è maggiore della tolleranza ammessa La probabilità che il valore di misura di uno strumento digitale sia compreso tra il valore mostrato dal display e quello che incrementa di un'unità l'ultima cifra visualizzata si assume convenzionalmente pari a: 100% La classe di uno strumento deve garantire che l'ultima cifra significativa rappresenti un valore: Trascurabile rispetto alla tolleranza indicata dalle specifiche Utilizzando un calibro digitale che rappresenta come ultima cifra significativa i millimetri per misurare uno spessore con tolleranza ammessa di ± 1 millimetro: L'intervallo di incertezza è pari al 50% della tolleranza ammessa Utilizzando uno stumento numerico, l'intervallo 2a di incertezza è: Maggiore dell'incertezza standard di una distribuzione normale La probabilità complessiva di assumere una decisione sbagliata è pari: Alla somma tra il rischio di tipo α e il rischio di tipo β La probabilità che si commetta un errore nel considerare il processo fuori specifica quando invece esso è in controllo è pari alla probabilità che : Il processo si trovi in prossimità del limite di specifica (ma entro tale limite), pesata con la probabilità che l'incertezza di misura porti il dato misurato oltre il limite di specifica Dette a l'incertezza, δ la tolleranza e σ lo scarto q.m., le probabilità di non corretta decisione diminuiscono: Al ridursi del rapporto a/σ e al crescere del rapporto δ/σ. Nello studio sperimentale di un sistema su basi statistiche: È utile definire quantitativamente i rischi di sbagliare nell'assumere una decisione piuttosto che un'altra L'impostazione delle ipotesi è la fase in cui: Si definiscono due ipotesi: l'ipotesi nulla e l'ipotesi alternativa, formulata in maniera esclusiva rispetto a quella nulla La regione di accettazione si definisce come: L'intervallo entro il quale è necessario che cadano i valori del campione affinché sia accettata come vera l'ipotesi nulla La regione di accettazione e la regione di rifiuto: Hanno intersezione nulla Generalmente, il test statistico sull'ipotesi nulla: Consente di provarne agevolmente la falsità mentre è più difficile provarne la verità La tabella di verità associata ad un test delle ipotesi: Schematizza le quattro possibili combinazioni tra decisione (vera/falsa) e realtà (vera/falsa) relative all'ipotesi nulla L'errore di I tipo (α) consiste nel: Rigettare l'ipotesi nulla Ho quando essa è vera L'errore di II tipo (β) consiste nel: Accettare l'ipotesi nulla Ho quando essa è falsa L'ipotesi si dice bilaterale: Quando esiste una popolazione statistica entro la quale è verificata e due popolazioni ad essa esterne entro le quali non è verificata Nella comparazione delle ipotesi per la media e per la varianza, le ipotesi nulla / alternativa sono del tipo: La diversità esiste / la diversità non esiste. La decisione presa a seguito di un test statistico: Non è certamente corretta in quanto l'aleatorietà del fenomeno in esame potrebbe averne falsato le conclusioni La significatività di una valutazione in presenza di eventi aleatori dipende da: Il numero di esperimenti eseguiti L'errore di I tipo (α) consiste nel: Rigettare l'ipotesi nulla Ho quando essa è vera L'errore di II tipo (β) consiste nel: Accettare l'ipotesi nulla Ho quando essa è falsa La tabella di verità associata ad un test delle ipotesi: Schematizza le quattro possibili combinazioni tra decisione (vera/falsa) e realtà (vera/falsa) relative all'ipotesi nulla Dire che l'ipotesi nulla è rifiutata al livello di significatività α significa: Che c'è un rischio α di sbagliare nell'aver preso la decisione di rifiutare l'ipotesi nulla Il rischio α è definito: A priori all'atto dell'impostazione del test Le ipotesi sono tradotte in criterio formale di decisione: Definendo una figura di merito, scegliendo una corrispondente statistica di riferimento, confrontando i valori numerici dell'una e dell'altra per il problema in esame Un test delle ipotesi si dice bilaterale: Quando la regione di rifiuto è suddivisa in due parti, corrispondenti rispettivamente a delle probabilità ⓫ e ⓬ Il rischio β rappresenta la probabilità che: Un'occorrenza aleatoria faccia apparire la figura di merito nella regione di accettazione. Il collaudo campionario in campo industriale prevede che: Si stabiliscano i criteri di accettazione o rifiuto dei lotti e si determini la numerosità dei campioni da sottoporre a prova La distribuzione campionaria delle medie di popolazioni qualsiasi di media ╘ e scarto tipo σ è: Normale gaussiana con media pari a ╘ e scarto tipo pari a σ diviso la radice quadrata di n, dove n è la numerosità del campione La funzione β(µ), detta caratteristica operativa del test: Tende al valore 1–α per µ che tende al valor atteso ܒe tende a zero per µ che tende a + infinito e a – infinito La potenza del test 1-β, ossia la confidenza nel rigettare l'ipotesi nulla se falsa: Aumenta all'aumentare della numerosità del campione, ossia dello sforzo sperimentale Nel caso che il risultato sperimentale risulti interno alla regione di accettazione: L'ipotesi nulla viene accettata al livello di significatività 1-α, cioè si è fiduciosi all'1–α di aver preso la decisione giusta Si definisce piano di campionamento: La procedura di impostazione del corrispondente test delle ipotesi che porta alla determinazione della numerosità del campione Il livello di qualità accettabile LQA è: Il livello di qualità per il quale il fornitore ammette un rischio pari ad α di vedersi respingere un lotto conforme Il livello di qualità tollerabile LQT è: Il livello di qualità per il il quale il cliente ammette un rischio pari a β di accettare un lotto non conforme In un piano di campionamento doppio: Vengono inizialmente determinati il numero di unità da esaminare per il primo e per un secondo campione, nonché i corrispondenti limiti di accettazione e rifiuto per entrambi i campioni L'impostazione del piano di campionamento con schema di commutazione: Prevede il passaggio al collaudo ridotto quando si riceve una fornitura la cui qualità risulta dal collaudo sistematicamente migliore di quanto previsto in contratto. Si definisce ANOM: L'analisi della media L'analisi della media è volta a: Attenuare gli effetti delle cause di variabilità aleatoria e determinare gli effetti di più parametri su una caratteristica di un sistema Si definisce ANOVA: L'analisi della varianza L'analisi della varianza ha come obiettivo: Analizzare l'influenza di uno o più parametri o della non qualità degli stessi fattori sulle prestazioni di un sistema Per eseguire l'ANOM: Si calcola la media della caratteristica di qualità in tutti gli N esperimenti, poi si stimano le medie locali degli esperimenti eseguiti al variare di ciascun parametro d'influenza, infine si valutano gli effetti dei parametri, a ciascun loro livello, come differenze tra le medie locali e la media totale Per verificare sperimentalmente se l'incertezza di una grandezza dipenda o meno dall'incertezza di alcuni parametri si utilizza: L'ANOVA L'ANOVA è utile per valutare: La variazione deterministica all'interno di un intervallo di ampiezza prefissata di uno o più parametri o la variazione aleatoria all'interno della fascia di incertezza di uno o più parametri Si utilizza la tecnica no-way ANOVA per valiutare l'effetto della variazione di: Tutti i parametri globalmente Si utilizza la tecnica one-way ANOVA per valiutare l'effetto della variazione di: Un solo parametro Si utilizza la tecnica two-way ANOVA per valiutare l'effetto della variazione di: Due parametri. L'ipotesi nulla: rappresenta l'ipotesi da verificare Si definisce errore di primo tipo: Il rischio di sbagliare nel riggettare l'ipotesi nulla quando questa essa sia vera Con la definizione di funzione potenza del test ci si riferisce: Alla funzione 1-β La determinazione dei rischi di errare: Viene presa a seguito di un test statistico Il valore di beta: Quantifica la possibilità di sbagliare accettando l'ipotesi nulla In generale, il rischio β e la potenza del test 1-β dipendono: Dalla numerosità del campione e dalla realtà dei fatti Se si vuole realizzare una procedura di decisione con maggiore capacità discriminante: È necessario investire un capitale maggiore nella sperimentazione La regione di accettazione: Ha intersezione nulla con la regione di rifiuto Nell'applicazione di verifica della significatività del test, se a valle della modifica del processo la durata di vita registrata fosse stata di 26000 ore: Al livello di significatività del 5% si sarebbe rifiutata a maggior ragione l'ipotesi nulla Nell'applicazione di calcolo della probabilità di commettere un errore, se la media del campione fosse stata pari a quella della popolazione: Si sarebbe accettata a maggior ragione l'ipotesi nulla, affermando che il nuovo processo produttivo è uguale al precedente. La tetanizzazione è: Il blocco della muscolatura Il diagramma delle zone di pericolosità della corrente elettrica: Relaziona i valori della corrente e il tempo di elettrocuzione al danno potenziale Il contatto indiretto si verifica quando: La persona entra in contatto con masse che vanno in tensione a causa di guasto dell'isolamento La resistenza di un contatto indiretto è dell'ordine : Dei kiloohm (kΩ) Il collegamento a terra delle masse ha l'obiettivo di: Ridurre la corrente che attraversa il corpo umano in condizioni di contatto indiretto Senza il collegamento a terra delle masse: In caso di guasto, non avviene l'interruzione automatica del circuito, se non a seguito di un contatto indiretto Per un interruttore automatico, la velocità di apertura dei contatti dipende: Dal cinematismo dell'interruttore In un interruttore magnetotermico, le funzioni dei due relé sono: Quello termico protegge i conduttori dal sovraccarico, quello magnetico protegge dal cortocircuito Un interruttore differenziale apre il circuito quando: Viene meno l'equilibrio tra le correnti di fase e di neutro La tensione di passo è: Quella misurata tra due punti del terreno posti alla distanza di un metro. Gli impianti in bassa tensione sono quelli: Con tensione fino a 1000 V in corrente alternata e 1500 V in corrente continua La norma CEI di riferimento per gli impianti a bassa tensione è: La Norma CEI 64-8 Un sistema di distribuzione TT prevede: Collegamento diretto a terra del neutro del sistema di alimentazione e masse collegate direttamente a terra Nel sistema TT si assume che: Gli impianti di terra della cabina di distribuzione e dell’impianto utilizzatore siano separati La selettività amperometrica si utilizza quando: Le correnti di cortocircuito degli interruttori differenziali delle sezioni a valle e a monte sono molto diverse da loro Un sistema di distribuzione TN prevede: Collegamento diretto a terra del neutro del sistema di alimentazione, masse collegate al punto messo a terra nel sistema di alimentazione Il sistema TN si utilizza: Nel caso di utenze con cabina di trasformazione propria, come le utenze industriali, ospedali, alberghi, centri commerciali e simili Per ottenere la sicurezza, la corrente di guasto deve essere: Maggiore della corrente che sicuramente provoca l’apertura dell’interruttore entro i tempi stabiliti Un sistema di distribuzione IT prevede: Isolamento da terra del neutro del sistema di alimentazione, masse collegate direttamente a terra In un sistema IT la corrente di guasto si può richiudere verso il generatore di alimentazione: Solo come corrente di dispersione, attraverso le capacità distribuite della linea. L'elemento, tra quelli elencati, che non fa parte dell'impianto di terra è: L'interruttore differenziale Le dimensioni minime e i materiali da utilizzare per i dispersori intenzionali sono stabilite da: La Norma CEI 64-8/5 La resistività del terreno è variabile in base a: Il suo grado di umidità Un dispersore è un parallelo perfetto di dispersori elementari quando: Ogni singolo picchetto è posizionato ad una distanza dagli altri tale che i campi di dispersione non si sovrappongano La sezione del conduttore di terra si può determinare in funzione: Dell’energia specifica lasciata passare dalla protezione nel tempo di intervento e delle caratteristiche del materiale Se il conduttore di terra viene interrato nudo e senza protezione meccanica: Necessita di una sezione maggiore rispetto a quella prevista per la posa con rivestimento anticorrosione e tubo di protezione Il conduttore di protezione (PE o PEN): Garantisce, insieme all’interruttore automatico, la protezione dai contatti indiretti Gli elementi dell'impianto che non vanno collegati al conduttore di protezione sono: Gli apparecchi di classe II Il colore caratteristico del rivestimento del conduttore di protezione è: Giallo e verde I collegamenti equipotenziali principali: Collegano le masse estranee di base dell'edificio al nodo principale di terra. Il metodo voltamperometrico per la misurazione della resistenza di terra: È una misura indiretta, basata sulla misurazione della corrente iniettata dal generatore e dalla tensione nella condizione di flesso La ricerca della condizione di flesso del profilo dei potenziali: Consente di individuare il punto in cui va collegata la sonda di tensione Per la misura della resistività, si utiizzano: Due sonde di corrente e due sonde di tensione, alternate in modo che quelle di tensione siano nel mezzo e siano tutte equidistanti La misura della resistenza complessiva del circuito di guasto a terra si utilizza: Nei sistemi TT, per i quali è molto difficile porre la sonda di corrente a una distanza pari a 5 volte l'ampiezza dell'impianto in prova Il meter misura la resistenza complessiva del circuito di guasto a terra: Operando due letture successive della tensione tra fase e terra, la prima a vuoto e la seconda dopo aver chiuso il contatto sulla sua resistenza interna di valore noto La misura della resistenza dell'anello di guasto nei sistemi TN si effettua con il metodo dell'alimentazione separata perché: Il meter è inadatto in quanto misura la caduta di tensione sull'impedenza dell'anello di guasto, che è trascurabile La corrente nominale di un interruttore differenziale è: La corrente, indotta nella bobina di rilevazione dalla differenza tra le correnti che percorrono i conduttori di fase e di neutro, oltre il quale sicuramente l’interruttore interviene La selettività amperometrica prevede: Che le protezioni più a valle siano tarate sulle correnti nominali più basse, e quelle a monte su correnti nominali via via crescenti La selettività cronometrica prevede: Che le protezioni a valle e a monte siano tarate tutte sulla stessa corrente nominale, ma con tempi di intervento via via crescenti da valle a monte La Norme prescrivono che durante la prova di funzionamento degli interrruttori differenziali: La tensione sul conduttore di protezione PE, dunque su tutte le masse a questo collegate, non superi la tensione limite di 50 V.