Sei sulla pagina 1di 17

 Le grandezze fisiche sono: Le proprietà fisiche misurabili di un sistema

 Due grandezze fisiche eterogenee: Non sono direttamente confrontabili


 Le grandezze fisiche derivate sono: Grandezze definite mediante una formula applicata a grandezze fondamentali
 Una grandezza vettoriale: Si caratterizza con intensità, direzione e verso
 Per una determinata grandezza: Per un determinato sistema di unità di misura, esiste una sola unità di misura
 Nei sistemi scientifici: La grandezza massa [M] è una grandezza fondamentale, mentre la grandezza forza [F] è una
grandezza derivata
 Il Sistema Internazionale definisce: Le unità di misura di sette grandezze fondamentali
 Il metro, nel S.I., a partire dal 1983, è definito come: La lunghezza del tragitto compiuto dalla luce nel vuoto in un
intervallo di tempo di 1/299792458 di secondo
 Un petametro (Pm) è pari a: 10^30 (fm) femtometri
 Grandezze eterogenee possono essere: Solo moltiplicate e divise cambiando l'u.d.m.
 Con il Nuovo Approccio la Comunità Europea: Demanda agli Enti di normazione il compito di definire le norme
"armonizzate", le specifiche tecniche necessarie per l'attuazione delle direttive
 CEN, CENELEC ed ETS sono: Enti di Normazione
 La marcatura CE: Attesta la conformità ai requisiti essenziali delle direttive europee
 L'approccio modulare della marcatura CE: Prevede diversi livelli di controllo, a seconda della pericolosità del
prodotto e dei rischi ad esso associati
 Gli organismi notificati sono: Organismi incaricati dai Governi degli Stati membri di verificare la conformità alle
direttive di prodotti, servizi e processi
 Gli organismi notificati hanno l'incarico di: Verificare la conformità dei prodotti, dei servizi e dei processi rispetto
ai requisiti fissati dalle direttive
 Quando il legislatore non ritiene sufficiente la "dichiarazione di conformità" rilasciata dal fabbricante: Viene
richiesto l'intervento degli organismi notificati, indipendenti e competenti, che verificano la conformità
 I tre tipi fondamentali di certificazione sono: Certificazione di prodotto, di qualità aziendale e del personale
 Il CEI rappresenta: Comitato Elettrotecnico Italiano
 Le norme tecniche pubblicate dal CEI stabiliscono: I requisiti fondamentali che devono avere materiali, macchine,
apparecchiature, installazioni e impianti elettrici ed elettronici.
 Il Sistema Nazionale di Taratura (SNT): Definisce gli Istituti Metrologici Primari ed i campioni nazionali delle unità
SI
 INRIM ed ENEA sono: Istituti Metrologici Primari
 La differenza tra un'attività di taratura e un'attività di prova consente nel fatto che: La taratura stabilisce la
relazione tra il valore indicato da uno strumento di misura ed il corrispondente valore noto della grandezza da
misurare, mentre una prova utilizza lo strumento di misura per determinare il valore di una grandezza
 I principali Organismi per l'attività di normazione in Italia sono: UNI e CEI
 Accredia svolge attività di: Accreditamento
 Nel diagramma di flusso per la scelta del processo di taratura, l'esame dei risultati è: Successivo alla taratura
 Una misura può essere considerata critica se: Si riferisce ad una caratteristica fondamentale del prodotto ed è
determinante per la sua qualità
 La norma ISO che definisce gli intervalli di taratura delle apparecchiature è la: ISO 10012/1
 Si conviene che l'incertezza dello strumento debba essere tale da garantire che: L'incertezza della misura sia
inferiore ad 1/3 di quella ammessa dal processo
 La taratura delle apparecchiature va eseguita: Ad intervalli opportunamente prestabiliti.
 I presupposti del C.W.Q.C. sono: Ispirati ad una visione olistica della Qualità
 La priorità assoluta dell’azienda è: La soddisfazione cliente consolidato
 I circoli della qualità sono: Gruppi di risorse umane aziendali che si scambiano conoscenze ed esperienze
 Per il primo principio del C.W.Q.C., il reparto/ufficio a valle è: Il cliente del reparto/ufficio a monte
 Il secondo principio del C.W.Q.C. afferma che: La qualità genera produttività quando genera valore per il cliente
 Il quarto principio del C.W.Q.C. afferma che: L'attività di formazione e addestramento sulle tecniche del controllo
qualità deve essere accurata, continua e riguardare tutto il personale dell’azienda
 L'approccio bottom-up previsto dal quinto principio del C.W.Q.C. consente di: Far maturare le decisioni dai livelli
più bassi a quelli più alti della gerarchia aziendale
 Il Just in time prevede: Produrre i prodotti finiti appena in tempo per consegnarli, i semilavorati e i sottoassiemi
appena in tempo per montarli; rifornirsi dei materiali di acquisto appena in tempo per utilizzarli
 Il Just in time implica il passaggio: Dalla produzione che determina il flusso dei materiali (push), al flusso dei
materiali che comanda la produzione (pull)
 La produzione "dock to factory floor" prevede che le materie prime: Passino "dalla banchina al pavimento del
reparto di produzione", senza passare attraverso il magazzino.
 Il Total Quality Management rappresenta: Un'approccio olistico al concetto di Qualità aziendale
 Nel Total Quality Management: Ogni analisi della situazione ed ogni azione di miglioramento deve essere basata
su dati oggettivi, e non su sensazioni
 Il Kaizen è: La strategia del rinnovamento a piccoli passi, da farsi giorno dopo giorno, con gradualità e continuità
 La teoria delle 𔄝S” riguarda: L'ingegnerizzazione della postazione di lavoro
 Nell'ottica del Kaizen: La soddisfazione del cliente è la misura della qualità
 Il ciclo di Deming è: Un processo di miglioramento continuo mediante applicazione ciclica delle fasi Plan, Do,
Check, Act
 Nella fase "Check" del ciclo di Deming: Si confrontano i risultati, misurati e raccolti nella fase del Do con i risultati
attesi, obiettivi del Plan
 Nella fase "Act" del ciclo di Deming: Si applicano le azioni migliorative e correttive e si consolidano le best
practices
 Il DMAIC è: Uno strumento di gestione utilizzato per migliorare, ottimizzare e stabilizzare i processi di
un'organizzazione
 Le fasi del DMAIC sono: Define, Measure, Analyze, Improve, Control.
 La misura è: Il valore, contraddistinto da un numero reale, un intervallo di incertezza ed un'unità di riferimento,
che viene assegnato ad una grandezza mediante azione di misurazione
 Il misurando è: La grandezza della quale si intende ottenere la misura
 L'incertezza è: L’ampiezza dell'intervallo di valori entro il quale è probabile che ricada la misura
 L'incertezza viene determinata: In base alla distribuzione statistica di un campione virtualmente infinito di misure
del misurando
 L'accuratezza e la ripetibilità: Sono indipendenti: una misura accurata può non essere ripetibile e viceversa
 Il valore vero di una misura: Deve comunque essere considerato affetto da incertezza
 L'incertezza del valore vero: Può essere assunta come l'incertezza dello strumento campione con il quale tale
valore viene determinato, a determinate condizioni di contorno
 Il metodo indiretto è il metodo nel quale la misura è ottenuta: Misurando una o più grandezze legate
funzionalmente al valore del misurando, ma non omogenee alla grandezza d'interesse
 La misura della massa di un oggetto tramite una bilancia a bracci, usa il metodo: Per confronto
 Nel metodo di zero, il valore del misurando è determinato: Variando una o più grandezze di valore noto, collegate
al misurando da una relazione nota, fino ad ottenere una condizione di equilibrio.
 È ragionevole ritenere che il valore medio di un insieme di N misure rappresenti: La stima migliore del vero valore
della grandezza in esame
 La varianza campionaria per un elevato numero di misure, è definibile come: Il valore medio del quadrato delle
deviazioni rispetto al valor medio
 La deviazione standard è: Un indice appropriato della dispersione delle misure attorno al valore medio
 Prima di costruire un istogramma delle osservazioni è necessario definire: I valori massimo e minimo tra le N
misure della grandezza e l'ampiezza degli intervalli di osservazione
 Un istogramma delle osservazioni rappresenta su un grafico: Il numero delle osservazioni relative a ciascun
intervallo, oppure la corrispondente frequenza
 La somma di tutte le frequenze di occorrenza rappresentate su un istogramma delle osservazioni è pari: A uno
 Se il numero N di osservazioni tende all'infinito: L’istogramma tende ad assumere un aspetto continuo
 L'integrale tra meno infinito e più infinito della funzione densità di probabilità è pari: A uno
 Una curva gaussiana è completamente descritta mediante: Media e varianza
 Secondo il teorema del limite centrale: La somma di n variabili casuali con media e varianza finite tende a una
distribuzione normale al tendere di n all'infinito.
 Nell'esempio numero 1 (esempio di costruzione di un istogramma) la barra alla quale corrisponde la massima
frequenza assoluta è: Da 3 a 6
 Nell'esempio numero 1 (esempio di costruzione di un istogramma) la barra alla quale corrisponde la massima
frequenza relativa è: Fino a 1
 In una tavola delle aree di probabilità sotto la distribuzione normale standard, i valori nella prima colonna (z)
rappresentano: Il valore in corrispondenza del quale, nelle due colonne successive, si ricava la probabilità che x
ricada tra 0 e z e la probabilità che x sia maggiore di z
 Nel calcolo del massimo scarto quadratico medio, se la probabilità fosse stata del 40% in luogo dell'80%,
avremmo avuto un valore del massimo s.q.m. pari a: 96.1538
 Nel calcolo del massimo scarto quadratico medio: La probabilità che il valore Z sia compreso tra 210 e 260 è
uguale alla probabilità che il valore Z sia minore di 210
 Nel calcolo della probabilità che sia X ≤ limite, la probabilità che X sia minore di un valore maggiore o uguale alla
media è: Maggiore o uguale a 0,5
 Nel calcolo della probabilità che sia X ≤ limite, la probabilità P(X minore o uguale 90) sarebbe stata: Maggiore
della probabilità assegnata P(X minore o uguale 80) e maggiore di 0,5
 Nella costruzione dell'intervallo di confidenza dati la media e lo scarto quadratico medio, all'aumentare della
numerosità del campione: L'intervallo di confidenza di restinge
 Nella costruzione dell'intervallo di confidenza dati la media e lo scarto quadratico medio, all'aumentare dello
scarto quadratico medio: L'intervallo di confidenza si allarga
 Nella costruzione dell'intervallo di confidenza dati la media e lo scarto quadratico medio, se si ammette una
probabilità del 90% in luogo del 99%:L'intervallo di confidenza si allarga.
 La norma UNI CEI ENV 13005 è la: Guida all’espressione dell’incertezza di misura
 L'incertezza di misura determina: La semiampiezza dell'intervallo di valori entro il quale è ragionevolmente
compresa la misura
 Sono di categoria A: Le incertezze valutate per mezzo dell’analisi statistica di serie di osservazioni
 L'incertezza di categoria A viene assunta pari: Allo scarto tipo sperimentale della media
 All'aumentare del numero N delle misurazioni effettuate è possibile: Ottenere una tendenziale riduzione
dell’incertezza in ragione di un fattore pari alla radice quadrata di N
 L'incertezza di categoria B relativa alla variabile X si valuta: In base ad un giudizio scientifico su tutte le
informazioni utili sulla possibile variabilità di X
 L'incertezza globale si calcola come: Radice quadrata della sommatoria dei quadrati delle incertezze di categoria A
eB
 L'incertezza estesa si calcola: Moltiplicando l'incertezza per il fattore di copertura k
 Gli errori casuali: Sono responsabili della variabilità dei valori misurati intorno ad un certo valor medio a parità di
condizioni sperimentali
 Gli errori sistematici: Sono costanti in entità e mantengono lo stesso segno.
 Nella pratica sperimentale è possibile stimare direttamente: Solo il valore minimo e il valore massimo della misura
 Le cifre significative con le quali ha senso esprimere il valor medio dipendono: Dal valore delll'incertezza
 Una misura indiretta si effettua: Conoscendo il legame funzionale tra la grandezza X e le grandezze Xi , dunque
effettuando le misure Xi e calcolando la misura X
 L’incertezza assoluta su una somma è data: Dalla somma delle incertezze assolute sugli addendi
 L’incertezza assoluta su una differenza è data: Dalla somma delle incertezze assolute su minuendo e sottraendo
 L’incertezza assoluta sul prodotto di a per b è data: Dalla somma del prodotto di a per l'incertezza di b e del
prodotto di b per l'incertezza di a
 Nell'espressione dell'incertezza assoluta sul prodotto, il termine che contiene il prodotto tra le incertezze sui
fattori: Si trascura, in quanto prodotto tra due valori entrambi con ordine di grandezza notevolmente minore
rispetto al valore dei fattori
 L'incertezza relativa su una grandezza che è combinazione di prodotti e quozienti fra due o più grandezze è pari a:
La somma delle incertezze relative sulle singole grandezze
 Per la determinazione della cifra successiva all'ultima cifra derivante dalla lettura di uno strumento digitale,
avremo una distribuzione di probabilità: Uniforme a valore costante
 Nel caso di una funzione densità di probabilità uniforme, lo scarto quadratico medio è pari a: Semiampiezza
dell'intervallo diviso radice di tre.
 Un sensore: È un elemento del trasduttore
 Si definisce sensore: Un dispositivo in grado di rilevare una grandezza fisica e di fornire in uscita un'altra
grandezza fisica
 Un trasduttore è: Un dispositivo in grado di rilevare una grandezza fisica e trasformarla in una grandezza di natura
elettrica
 Un circuito di condizionamento del segnale ha il compito di: Portare il segnale in uscita dal sensore/trasduttore in
un formato compatibile con il dispositivo di elaborazione che lo segue
 I trasduttori attivi: Forniscono una grandezza elettrica senza consumo di energia esterna
 I trasduttori con principio di funzionamento resistivo, capacitivo, induttivo, si basano: Sulla variazione della
resistenza, capacità, induttanza del sensore per effetto dell'azione del misurando
 Le grandezze continue: Hanno un andamento nel tempo descritto da una funzione continua
 Il teorema del campionamento afferma che per campionare un segnale senza perdita di informazioni: È sufficiente
una frequenza di campionamento pari almeno al doppio della massima frequenza del segnale
 I trasduttori digitali: Hanno una risoluzione limitata per effetto della quantizzazione
 L'errore di quantizzazione: È inferiore alla metà del valore che si ottiene dividendo l'ampiezza dell'intervallo dei
valori in uscita per 2 elevato al numero di bit della codifica.
 Se la caratteristica di trasferimento di un trasduttore di precisione è lineare: La variazione della grandezza d'uscita
è direttamente proporzionale a quella d'ingresso
 La caratteristica statica di un trasduttore si ottiene: Variando molto lentamente la variabile di ingresso del sensore
e registrando la corrispondente variabile di uscita
 Il campo di misura di un trasduttore è: La differenza tra il valore massimo e il valore minimo della grandezza in
ingresso, affinché siano garantite le prestazioni del trasduttore
 La linearità: È il parametro che evidenzia l’errore tra la caratteristica ideale teorica e la reale curva caratteristica
del trasduttore.
 L'errore di offset è: Il valore che assume l’uscita del trasduttore quando la grandezza da misurare è nulla
 Si parla di isteresi quando la caratteristica del trasduttore: È differente a seconda che la variazione del misurando
stia avvenendo in aumento, da un valore più alto ad uno più basso, o viceversa in diminuzione
 Un trasduttore offre buona ripetibilità se: È molto preciso
 Il comportamento dinamico di un trasduttore si manifesta quando: La grandezza di ingresso varia rapidamente
 Il tempo morto è: Il tempo intercorrente tra l’applicazione dell’ingresso e l'istante in cui il sistema raggiunge il 5%
del valore di regime
 Un elevato fattore di smorzamento: Limita la sovraelongazione e il tempo di assestamento.
 Una forza di trazione su un elemento elastico ne provoca: L'allungamento e l'assottigliamento
 La massa sismica è: La massa inerziale che viene accelerata in un accelerometro
 La resistività di un conduttore varia con la temperatura in ragione: Dell'agitazione termica degli atomi del reticolo
cristallino
 Il gauge factor o strain factor determina: Il rapporto tra la variazione relativa della resistenza e la variazione
relativa di lunghezza del conduttore
 La piezoelettricità è conseguenza: Dell'addensamento di ioni di cariche opposte sulle facce opposte di un cristallo
 Affinché si generi l'effetto Seebeck, è necessario realizzare: Due giunzioni tra due elementi conduttori di materiali
diversi, a diverse temperature
 La capacità di un condensatore è: Direttamente proporzionale alla superficie delle armature e inversamente
proporzionale alla distanza tra le armature
 Spostando il nucleo ferromagnetico all’interno di una bobina si ottiene: La variazione dell'induttanza per
variazione della permeabilità magnetica
 Nei trasformatori differenziali la variazione della posizione si traduce: In uno spostamento del nucleo
ferromagnetico
 Nel partitore di tensione: La posizione di un cursore determina la ripartizione della resistenza di un conduttore.
 Un potenziometro è, sostanzialmente: Un partitore resistivo di tensione
 La risoluzione di un potenziometro a filo dipende: Dal numero delle spire del filo avvolte sul supporto isolante
 In un trasformatore differenziale, variando la posizione del nucleo rispetto ai due avvolgimenti secondari: Si
modificano i valori dei coefficienti di mutua induzione per cui le due tensioni, non uguagliandosi più, risultano in
una tensione all'uscita
 Spostando il nucleo ferromagnetico all’interno di una bobina si ottiene: La variazione dell'induttanza per
variazione della permeabilità magnetica
 La sensibilità di un trasformatore differenziale è data: Dal rapporto tra valore della tensione di uscita nelle
condizioni di spostamento a fine corsa e la tensione di alimentazione
 Un encoder è: Un componente elettromeccanico in grado di convertire in un segnale elettrico digitale la posizione
angolare del suo asse rotante
 Un encoder si dice assoluto quando: Ad ogni posizione dell'albero corrisponde un valore ben definito dell’uscita
digitale
 La risoluzione di un encoder assoluto dipende: Dal numero di tracce circolari concentriche del disco
 Il principale vantaggio degli encoder incrementali consiste: Nella riduzione del numero di fotosensori
 Una dinamo tachimetrica utilizza: Un sistema a spazzole e collettore come le convenzionali macchine a corrente
continua.
 I termoresistori sono componenti nei quali: La variazione della resistenza è una funzione non lineare della
variazione di temperatura
 La caratteristica dei termistori NTC: Ha andamento esponenziale decrescente su piccoli intervalli di temperatura
 Il pregio principale dei termistori è costituito: Dalla elevatissima sensibilità
 Il principio di trasduzione delle termocoppie è: L'effetto Seebeck
 In confronto ai termistori e ai termoresistori, le termocoppie hanno: Una minore sensibilità
 Il “gauge factor” o “strain factor” è: Il rapporto tra la variazione relativa della resistenza e la variazione relativa di
lunghezza del conduttore
 Il principio di trasduzione degli estensimetri è: La piezoresistenza
 Nell'utilizzo degli estensimetri, la variazione della temperatura ambiente: Può introdurre un errore nella stima
della variazione relativa di resistenza
 Il primario di un trasformatore voltmetrico va inserito: In parallelo alla linea della quale si intende ridurre, quindi
misurare la tensione
 Il rapporto di trasformazione effettivo di un trasformatore amperometrico è molto vicino a quello nominale: Se il
trasformatore funziona in condizioni prossime al funzionamento in cortocircuito
 La corrente elettrica può stabilirsi esclusivamente: In un circuito chiuso
 n un circuito, si dice nodo: Un punto in cui confluiscono più rami
 Due o più componenti in serie sono collegati: In modo da formare un percorso unico per la corrente elettrica che
li attraversa
 La resistenza totale di n resistori in serie è uguale: Alla somma delle resistenze di ciascun resistore
 Due o più componenti in parallelo sono collegati: In modo che siano sottoposti tutti alla stessa tensione
 La resistenza totale di n resistori in parallelo è uguale: Ad una resistenza il cui inverso è pari alla somma degli
inversi delle resistenze degli n resistori
 La prima legge di Kirchoff dice che: Per ciascun nodo deve risultare nulla la somma delle correnti entranti e
uscenti
 La seconda legge di Kirchoff dice che: La somma delle tensioni, percorrendo la maglia chiusa, è nulla
 La resistenza del bipolo equivalente di Thevenin viene calcolata: Cortocircuitando i generatori di tensione e
aprendo eventuali generatori di corrente nella parte di circuito sostituita dal bipolo
 La tensione del generatore del bipolo equivalente di Thevenin è: Quella che si misurerebbe fra i punti A e B a
vuoto con uno strumento ideale.
 All'atto dell'inserzione del voltmetro, possiamo vedere il circuito come: Un bipolo equivalente di Thevenin, al
quale il voltmetro risulta collegato in parallelo
 L'effetto di carico strumentale nel caso dell'inserzione del voltmetro è dovuta: Alla corrente circolante nel ramo
del voltmetro, posto in parallelo al bipolo equivalente che rappresenta il circuito
 Sostituendo un voltmetro con resistenza interna di 1 megaohm con uno da 5 megaohm si ottiene: Una riduzione
dell'errore assoluto e relativo, tanto più sensibile quanto minore è la resistenza interna del bipolo equivalente
 Un voltmetro ideale ha: Resistenza interna tendente all'infinito
 La misura della corrente circolante in un ramo di una rete elettrica si effettua: Connettendo un amperometro in
serie sul ramo stesso
 L'effetto di carico strumentale nel caso dell'inserzione dell'amperometro è dovuta: Alla caduta di tensione ai capi
dell'amperometro, che altera la tensione ai capi del ramo cui è collegato
 Sostituendo un amperometro con resistenza interna di 0,1 ohm con uno da 0,01 megaohm si ottiene: Una
riduzione dell'errore assoluto e relativo, tanto più sensibile quanto maggiore è la resistenza di carico
 Un amperometro ideale ha: Resistenza interna tendente a zero
 La portata di uno strumento è: Il massimo valore della grandezza che uno strumento può misurare correttamente
senza subire danni
 Se uno strumento è di classe 0.5 vuol dire che: L'errore strumentale è inferiore allo 0.5% del valore presunto
esatto.
 In regime alternato sinusoidale, in un circuito puramente resistivo: Tensione e corrente sono grandezze tra loro
direttamente proporzionali
 La potenza elettrica istantanea è data: Dal prodotto tra i valori della tensione e della corrente in un determinato
istante
 Il valore efficace di un segnale di tensione o di corrente elettrica è pari: Al valore di cresta del segnale diviso per la
radice quadrata di due
 In un circuito reale, non puramente resistivo ma con componenti reattive, la potenza media nel periodo è pari: Al
prodotto tra i valori efficaci di tensione e corrente per il coseno dell'angolo di fase tra tensione e corrente
 I wattmetri analogici si basano: Su circuiti moltiplicatori, che ricevono le letture di tensione e corrente, dunque ne
fanno il prodotto medio
 I wattmetri digitali: Elaborano segnali campionati mediante circuiti di digital signal processing dedicati oppure
tramite sistemi di acquisizione dati gestiti da computer
 Inserendo il circuito voltmetrico di un wattmetro a valle, ossia sulla parte di linea amperometrica che va al carico:
La corrente misurata nel circuito amperometrico risulta diminuita della piccola corrente che si chiude nel circuito
voltmetrico
 Inserendo il circuito voltmetrico di un wattmetro a monte, ossia sulla parte di linea amperometrica opposta a
quella che va al carico: La tensione misurata nel circuito voltmetrico risulta diminuita della piccola caduta di
potenziale sul circuito amperometrico
 La scelta dell'inserzione del circuito voltmetrico del wattmetro a valle o a monte: Dipende dalle condizioni di
funzionamento: alta tensione e bassa corrente, si collega a monte, bassa tensione ed alta corrente si collega a
valle
 L'errore di fase assume valori rilevanti quando: L'angolo di fase cresce oltre un quarto di pi greco.
 L'oscilloscopio è: Un dispositivo che consente di visualizzare l'andamento nel tempo di segnali elettrici
 L'oscilloscopio consente, tra l'altro, di: Localizzare avarie in un circuito
 Un oscilloscopio può rappresentare: Un gran numero di fenomeni, inserendo il trasduttore adeguato
 Le principali tipologie di oscilloscopi sono: Analogici / Digitali
 Il CRT è: Un tubo a raggi catodici
 La deflessione verticale è effetto di: Una forza prodotta da un campo elettrico variabile in funzione della misura
nel tempo del segnale da esaminare
 Il generatore di segnali a dente di sega interno all'oscilloscopio analogico: Controlla il sistema di deflessione
orizzontale
 Utilizzando un oscilloscopio digitale: Il segnale subisce una conversione analogica/digitale e una conversione
digitale/analogica
 La memoria di un oscilloscopio digitale: Viene utilizzata per memorizzare i valori del segnale convertiti in formato
digitale
 La risoluzione di un oscilloscopio digitale dipende: Dalla velocità di conversione analogica/digitale.
 Per utilizzare in sicurezza l'oscilloscopio, è necessario: Utilizzare l'alimentazione con messa a terra
 Le sonde vanno collegate: Ai connettori BNC
 Il controllo TIMEBASE: Consente di modificare il fattore di scala utilizzato dal sistema orizzontale
 Una sonda marchiata con 10X o 100X: Attenua il segnale di 10 o 100 volte affinché possa essere acquisito
correttamente
 La compensazione della sonda: Serve a compensare l'effetto delle capacità parassite che intervengono
all'aumentare della frequenza
 La banda passante di un oscilloscopio: Specifica il campo di frequenza che l'oscilloscopio può misurare con
precisione
 Il tempo di salita di un oscilloscopio: Impedisce di visualizzare impulsi che si sviluppano in un tempo minore di
esso
 La sensibilità verticale indica: La variazione di ampiezza minima del segnale che può essere visualizzata dallo
strumento
 La velocità di deflessione orizzontale di un oscilloscopio analogico dipende: Dal generatore di segnali a dente di
sega interno all'oscilloscopio
 La velocità di campionamento di un oscilloscopio digitale indica: Quanti campioni per secondo vengono catturati
dal sistema di acquisizione dati e convertiti in digitale.
 Un segnale discreto: Varia nell'insieme dei numeri reali solo in corrispondenza di determinati istanti di tempo
 Un segnale è quantizzato quando: Tra due suoi possibili valori consecutivi è presente un intervallo di altri valori
che esso non può assumere
 Con l'acronimo DAC si indica: Un convertitore di segnali digitali in segnali analogici
 Il Teorema del campionamento di Nyquist-Shannon afferma che: Per campionare senza perdita di informazioni un
segnale a banda limitata è sufficiente una frequenza di campionamento >= del doppio della massima frequenza
del segnale
 Digitalizzare dati con la frequenza di campionamento pià alta possibile è: Una scelta che ha un costo, ma che può
rivelarsi opportuna in determinati casi
 La quantizzazione consiste nel: Ridurre il numero di valori che la grandezza può assumere
 Il principale vantaggio della quantizzazione silenziata è: L'annullamento dell’effetto della tensione di rumore
 Per ridurre l'errore di quantizzazione è opportuno: Aumentare il numero di livelli di quantizzazione e ridurre il
Voltage Full Scale Range
 Nella codifica Gray: Livelli di quantizzazione contigui distano sempre al massimo un solo bit
 L'ampiezza di un quanto è: Direttamente proporzionale al Voltage Full Scale Range.
 Il Bus Real-Time System Integration (RTSI) serve a: Sincronizzare i segnali tra diversi dispositivi DAQ interfacciati
allo stesso computer
 Il circuito sample & sold serve a: Mantenere costante la tensione da convertire per tutta la durata del periodo di
campionamento
 Il multiplexer è: Un selettore che collega i diversi canali d’ingresso, ciclicamente, uno per volta, all’amplificatore
dello strumento
 La frequenza di campionamento consentita sul singolo segnale di ingresso i-esimo, in un sistema ad N ingressi con
l'uscita del MUX collegata ad un unico circuito S&H, è circa: Pari alla frequenza di campionamento dell'ADC divisa
per N
 La frequenza di campionamento consentita sul singolo segnale di ingresso i-esimo, in un sistema ad N
campionamento simultaneo è circa: Pari alla frequenza di campionamento dell'ADC divisa per N
 Un sistema di acquisizione veloce utilizza: Un S&H e un ADC per ciascun ingresso
 Il Direct Memory Access (DMA) prevede che: I dati vengano trasferiti direttamente dal DAQ alla memoria del
computer, scavalcando il processore
 Un’apparecchiatura che comunica in GPIB: Può assumere i ruoli di talker, listener, controller
 Il software LabVIEW è: Un ambiente di sviluppo integrato per il linguaggio di programmazione visuale di National
Instruments, chiamato Linguaggio G
 Uno strumento virtuale è: Un software che consente di simulare in tutto e per tutto l'utilizzo di uno strumento
reale.
 La gestione a minima energia consiste: Nel sostituire alla filosofia della ricerca dei rimedi quella della rimozione
delle cause che provocano gli inconvenienti
 L'indice di Process Capability è definito come: Il rapporto tra l'intervallo tra i due limiti di specifica (inferiore e
superiore) e sei volte lo scarto quadratico medio dei risultati osservati in un campione della produzione
 Affinché sia possibile utilizzare l'indice di process capability: La variabile caratteristica che descrive il processo
deve essere normale
 In una distribuzione normale la percentuale di misure che ricadono al di fuori di un campo di variabilità pari a 6σ è
pari: Allo 0.27%
 Affinché un processo abbia migliore capacità, si richiede, in genere, che l'indice di process capability sia: Maggiore
di 1.33
 Il tasso di capacità, rispetto all'indice di process capability: Fornisce un'informazione più completa, in quanto
misura sia la dispersione che la centratura del processo rispetto al punto medio della specifica
 Un tasso di capacità minore di zero indica un processo in cui: Circa la metà della quantità prodotta è non
conforme e ad di fuori dei limiti di tolleranza
 La formula del calcolo del tasso di capacità è uguale: Al minimo tra la differenza tra limite superiore e media diviso
tre volte lo scarto quadratico medio e la differenza tra media e limite inferiore diviso tre volte lo scarto quadratico
medio
 I sei strumenti per la qualità sono: Raccolta dati, costruzione di istogrammi, analisi di Pareto, stratificazione,
costruzione di diagrammi causa-effetto, individuazione delle funzioni di correlazione
 I dati raccolti durante un processo produttivo o al termine dello stesso: Possono assumere qualsiasi forma, non
necessariamente numerica.
 L'indice di Process Capability è dato da: Il rapporto tra l'intervallo tra i due limiti di specifica (inferiore e superiore)
e sei volte lo scarto quadratico medio dei risultati osservati in un campione della produzione
 L'indice di process capability è definibile se: La distribuzione che descrive il processo è gaussiana
 La percentuale di misure che ricadono al di fuori di un campo di variabilità pari a 6σ in una distribuzione normale è
pari: Allo 0.27%
 L'indice di process capability richiesto affinché un processo sia considerato capace, in genere, è: Maggiore o
uguale di 1.33
 Affinché l'intervallo di specifica sia maggiore di 8 volte lo scarto quadratico medio: Il tasso di capacità deve essere
maggiore di 1.33
 In un processo con tasso di capacità minore di zero: Circa la metà della quantità prodotta è non conforme e ad di
fuori dei limiti di tolleranza
 Il tasso di capacità è pari: Al minimo tra la differenza tra limite superiore e media diviso tre volte lo scarto
quadratico medio e la differenza tra media e limite inferiore diviso tre volte lo scarto quadratico medio
 Rispetto all'indice di process capability, il tasso di capacità: Tiene conto sia dell'accuratezza e anche della
precisione
 Nell'esercizio A, sel'intervallo di specifica fosse più ampio: Si avrebbe maggiore probabilità di avere il processo in
controllo statistico
 Nell'esercizio B, il primo processo ha migliore process capability rispetto al secondo perché: L'intervallo di
specifica è più ampio.
 L'indice di Process Capability viene calcolato come: Il rapporto tra l'intervallo tra i due limiti di specifica (inferiore
e superiore) e sei volte lo scarto quadratico medio dei risultati osservati in un campione della produzione
 Affinché abbia senso utilizzare l'indice di process capability per qualificare il processo è necessario che: La
distribuzione dei risultati del processo sia normale
 La percentuale di misure che ricadono al di fuori di un campo di variabilità pari a 6σ, in una distribuzione normale,
è pari a: 0,27%
 L'indice di process capability denota un processo con buona capacità se il suo valore è: Maggiore di 1.33
 Il tasso di capacità, rispetto all'indice di process capability: Fornisce un'informazione più completa, in quanto
misura sia la dispersione che la centratura del processo
 Un tasso di capacità minore di zero indica un processo in cui: Circa la metà della quantità prodotta è non
conforme e al di fuori dei limiti di tolleranza
 Il tasso di capacità, si calcola come: Il minimo tra la differenza tra limite superiore e media diviso tre volte lo
scarto quadratico medio e la differenza tra media e limite inferiore diviso tre volte lo scarto quadratico medio
 Una buona process capability si riflette, dal punto di vista grafico, in una distribuzione: Centrata rispetto ai limiti di
specifica e stretta rispetto alla larghezza dell'intervallo di specifica
 Nell'esempio dei veicoli, che viaggiano col centro a una distanza di 50 cm dalla linea di mezzeria, il tasso di
capacità garantisce il controllo a 6 sigma ma non a 8 sigma per: Soltanto la city car
 Quando il processo è perfettamente centrato e la distribuzione è normale: Gli indici Cp e Cpk sono uguali tra loro.
 L'istogramma è: Una rappresentazione grafica di un insieme di dati nella quale l'ascissa indica i valori misurati e
l'ordinata la frequenza con cui essi si presentano entro un predefinito intervallo di misura
 In un istogramma normalizzato l’area A di una barra: Corrisponde alla frequenza relativa di accadimento degli
eventi nella classe considerata
 L'area sottesa dall'istogramma normalizzato: Corrisponde alla sommatoria delle frequenze relative di
accadimento degli eventi nelle classi considerate, dunque è uguale a 1
 Le classi di un istogramma: Sono intervalli sull'asse delle ascisse aventi tutti la medesima ampiezza
 Un istogramma bimodale: Induce a desumere il fatto che i dati non sono omogenei per modalità di raccolta, per
origine o per altre cause
 Un istogramma con skew positivo: Indica che un evento è intervenuto nel processo, ad esempio è variato il valore
medio di un parametro di influenza
 Un istogramma con una distribuzione "stretta":Denota un processo con bassa deviazione standard
 Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della mediana è: 7
 Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della moda è: 90
 Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della media è: 41.
 L'istogramma è definito come: Una rappresentazione grafica di un insieme di dati nella quale l'ascissa indica i
valori misurati e l'ordinata la frequenza con cui essi si presentano entro un predefinito intervallo di misura
 L'area A di una barra di un istogramma normalizzato: Corrisponde alla frequenza relativa di accadimento degli
eventi nella classe considerata
 L'area sottesa dall'istogramma normalizzato: Corrisponde alla sommatoria delle frequenze relative di
accadimento degli eventi nelle classi considerate, dunque è uguale a 1
 Le classi di un istogramma: Sono intervalli sull'asse delle ascisse aventi tutti la medesima ampiezza
 Il numero più opportuno di classi per un istogramma è: Dipendente dal numro di dati da rappresentare
 L'ogiva relativa ad una distribuzione di frequenza cumulata si ottiene: Riportando le frequenze cumulative in
corrispondenza dei valori centrali di ogni classe
 Il valore della frequenza riportato nell'ultima classe dell'ogiva è pari: Alla somma dei valori delle frequenze di tutte
le classi dell'istogramma
 Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della media è: 41
 Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della moda è: 90
 Dato l'insieme di valori {3,3,4,7,90,90,90}, il valore della mediana è:7.
 Il numero di classi per la realizzazione di un'istogramma si sceglie: In funzione del numero di misure registrate
 L'analisi di tendenza centrale consente di stabilire se: Una distribuzione è unimodale o multimodale
 Un istogramma bimodale: Induce a desumere il fatto che i dati non sono omogenei per modalità di raccolta, per
origine o per altre cause
 L'analisi visuale della variabilità si basa sul confronto tra: Le frequenze delle barre centrali e le frequenze delle
barre laterali
 La variabilità di un istogramma è tanto maggiore: Quanto maggiore è lo scarto quadratico medio
 Un istogramma con skew positivo: Indica che un evento è intervenuto nel processo, ad esempio è variato il valore
medio di un parametro di influenza
 Una piccola variabilità è indice di un processo: Con elevata process capability, se il processo è centrato
 In caso di tendenza multimodale, gli indici Cp e Cpk: Non sono descrittivi del processo come lo sono in caso di
tendenza unimodale
 Se, nell'esercitazione proposta, lo scarto quadratico medio fosse stato pari alla metà di 0.2326, ossia 0,1163,
l'indice Cpk sarebbe risultato: Pari al doppio di quello dell'esercitazione: sono inversamente proporzionali
 Se tutti i campioni ricadono entro i limiti di specifica: Il processo produttivo è capace se il tasso di capacità è
definito e maggiore di 1,33.
 Quando si vogliono desumere da un campione informazioni relative all'intera popolazione: Il metodo di selezione
del campione deve dare ad ogni elemento della popolazione una uguale probabilità di essere estratto
 Un tipico effetto della stratificazione è: Lo scostamento del valor medio rilevato sul campione rispetto a quello
atteso per l'intera popolazione
 Le Tavole di Fisher - Yates: Consentono di estrarre un campione casuale da un determinata popolazione,
associando i membri della popolazione con numeri casuali
 Una distribuzione bimodale indica che: Il campione è affetto da viziatura e non è adeguatamente rappresentativo
della popolazione
 Il campionamento casuale semplice viene effettuato: Mediante estrazione da un'urna di biglie numerate, ciascuna
collegata ad un'unità della popolazione
 Si effettua la selezione delle unità con probabilità differenti quando: Alcune unità statistiche apportano maggiori
informazioni delle altre, quindi si vuole aumentare la probabilità che queste siano selezionate
 Si effettua un campionamento a due o più stadi quando: Non è disponibile una lista complessiva delle unità della
popolazione, la quale risulta frazionata in più sottoinsiemi
 Prima di procedere al campionamento stratificato: Si suddivide la popolazione in due o più gruppi, secondo una o
più caratteristiche conosciute sulle unità statistiche
 Il campionamento sistematico può condurre a viziatura se: L'ordine in cui le unità sono disposte in lista tende ad
avere una ricorrenza associata alla caratteristica di interesse
 Nell'esempio di campionamento stratificato, l'aggiunta di una terza variabile classificatoria booleana (vero/falso)
comporterebbe: La partizione della popolazione campione in 8 gruppi, in luogo dei 4 previsti dall'esempio.
 Per poter intraprendere nel modo migliore azioni che possono condurre ad un miglioramento della qualità
complessiva del prodotto, è necessario: Individuare i sottoproblemi che hanno maggiore incidenza
 Il diagramma di Pareto è: Un grafico che rappresenta l'importanza delle differenze causate da un certo fenomeno
 Il diagramma di Pareto consente di: Stabilire quali sono i maggiori fattori di influenza su un dato fenomeno
 Il diagramma di Pareto va costruito: Riportando in ascissa l'elenco delle possibili cause e in ordinata il numero
degli eventi associato ad ognuna di esse, riordinando in modo che le ordinate siano decrescenti
 Una volta individuata la causa maggiormente incidenza sulla qualità del prodotto: E' possibile indagare
ulteriormente mediante una nuova analisi di Pareto sulle cause della causa individuata
 Il Principio di Pareto è: Un risultato di natura statistico-empirica, che si riscontra in molti sistemi complessi dotati
di una struttura di causa-effetto
 Il Principio di Pareto afferma che: Circa il 20% delle cause provoca l'80% degli effetti
 Il Principio di Pareto può essere applicato: A sistemi socio-economici complessi
 L'analisi ABC: Presuppone una suddivisione degli oggetti in esame in tre categorie, in modo da permettere di
valutare in modo selezionato il loro impatto
 Le classi dell'analisi ABC prevedono: Valore decrescente e numerosità crescente.
 In ogni processo la qualità misurabile è quella: Interna
 I diagrammi causa-effetto: Rendono riconoscibili le relazioni tra i possibili parametri di influenza e le
caratteristiche qualitative dei prodotti
 In un diagramma causa-effetto: Le fasi della produzione sono rappresentate da linee oblique lungo le quali sono
riportate le possibili cause di dispersione
 Le possibili cause di incertezza rappresentate nel diagramma: Possono influenzare l'effetto in modi diversi,
generando ciascuna una diversa dispersione
 La lettura di un diagramma causa-effetto consente di: Disporre di un'analisi di base che consente di identificare i
parametri d'influenza sui quali è opportuno concentrare l'analisi sperimentale
 Il diagramma di Ishikawa è: Uno strumento manageriale utilizzato, nel settore industriale e nei servizi, per
individuare le cause più probabili di un effetto
 Il diagramma di Pareto e il diagramma di Ishikawa sono: Due strumenti che possono essere utilizzati
congiuntamente, per identificare, mettere in ordine di rilevanza e contestualizzare i parametri di influenza
 Le 5 M sono: Cinque macrogruppi di parametri d'influenza Man, Machines, Materials, Methods, Milieu
 Le cause identificare in un diagramma di Ishikawa possono essere rappresentate: Mediante una struttura ad
albero: dal tronco/processo si diramano gli ambiti/rami portanti, dai quali si diramano le cause più generiche,
dalle quali si diramano le cause più specifiche
 Un'analisi con diagramma di Pareto può essere condotta: Nella generazione (selezione delle cause) e
nell'interpretazione (assegnazione priorità alle cause) di un diagramma di Ishikawa.
 Un diagramma di correlazione viene costruito: Riportando in un diagramma cartesiano l'insieme di punti
rappresentativi di due parametri oggetto dell'indagine
 La verifica dell'esistenza di correlazione con il metodo delle mediane: Si basa sull'analisi della distribuzione di
punti in un piano cartesiano i cui assi coincidono con i valori di una delle cause e dell'effetto
 Una correlazione è positiva se: Nel diagramma di correlazione, l'addensamento dei punti si verifica nel III e I
quadrante
 Si parla di interpolazione statistica quando: Si trova una funzione che sia in grado di rappresentare al meglio la
relazione esistente tra due variabili
 Le variabili tipiche dell'interpolazione statistica sono: Esplicativa e dipendente
 Per tracciare la retta interpolante di una funzione non lineare: Si opera un'opportuna trasformazione di
coordinate sugli assi delle ascisse e delle ordinate
 La funzione della retta interpolante: Deve minimizzare la somma dei quadrati delle differenze tra ciascun valore
rilevato e il corrispondente valor teorico
 Il metodo dei minimi quadrati si usa per: Verificare se i punti sono rappresentativi di una curva nota, dalla quale si
discostano per l'incertezza o variabilità naturale del processo
 Il metodo dei minimi quadrati, se è nota l'espressione analitica ma non il valore dei parametri: Consente di
determinare il valore dei parametri per via analitica, utilizzando le derivate della funzione sommatoria del
quadrato degli scarti
 Il metodo basato sull'analisi dei raggruppamenti, rispetto al metodo della sequenza delle differenze: Fornisce
risultati più attendibili soprattutto quando l'intervallo in corrispondenza del quale si effettuano le misure è
costante.
 La qualità di un bene (prodotto o servizio) è sempre relativa: Alla funzione cui esso è destinato
 La qualità di un bene può essere valutata in funzione: Degli scostamenti tra i valori qualitativi misurati per
determinati attributi e i rispettivi valori di riferimento
 Il giudizio per attributi corrisponde: Ad una valutazione buono/cattivo, oppure accettazione/non accettazione
 Quando le prestazioni di un bene non soddisfano le attese, il danno è sopportato: Dall'utilizzatore, dal produttore
e dall'intera società
 In regime di "total quality management", un indicatore di qualità particolarmente significativo è costituito da:
Somma dei costi di normale funzionamento e di non qualità
 Una delle procedure di ottimizzazione parametriche più diffusa è: Quella del Robust Design
 Ai fini della riduzione dei guasti, non è utile: Sostituire il componente immediatamente appena si verifica il guasto
 L'accumulo di danneggiamento determina il guasto ed il termine della durata di funzionamento: Quando un
parametro intrinseco al materiale che descrive il suo stato fisico e la sua capacità di adempiere ad una specifica
funzione cade al di sotto di un valore critico
 Il modello di invecchiamento lineare: Assume che risorsa degradi con il tempo linearmente
 Con l'acronimo D.B.E. (Design Based Events) si indicano: Le sollecitazioni a regime o in condizioni transitorie o
anomale che sono prevedibili in fase progettuale.
 I modelli di deterioramento si basano: Sulla conoscenza, su basi empiriche, della relazione stress-deterioramento
come funzione del tempo e dell'ampiezza della sollecitazione
 Il modello di Arrhenius correla: La velocità di una reazione chimica alla temperatura assoluta tramite una funzione
esponenziale
 Il modello di Eyring rappresenta: Una riformulazione del modello di Arrhenius, che consente di considerare
ulteriori sollecitazioni oltre la temperatura
 Secondo il modello della potenza inversa, il tempo necessario a raggiungere il termine della vita è: Inversamente
proporzionale al valore della sollecitazione elevato ad un potenza n, con n costante determinata empiricamente
 La Carta di Arrhenius ha come assi: Log(Durata), 1/Temperatura
 Se un'apparecchiatura, nel tempo, viene sottoposta a diversi regimi di sollecitazione, l'invecchiamento
complessivo sarà: Pari alla somma degli invecchiamenti determinati nei diversi periodi
 La durata di un componente in condizioni di servizio variabili è determinabile: Quando è noto il tempo di durata di
ogni sollecitazione
 Le caratteristiche dei componenti fisici: Cambiano nel tempo sotto l'influenza di sollecitazioni ambientali od
operazionali
 Un componente ha raggiunto il punto finale quando: L'ammontare della modifica di un parametro funzionale sia
tale da inibire il funzionamento previsto
 Il termine della vita, per definizione: Non è necessariamente associata ad una particolare applicazione e viene
raggiunto quando la modifica del parametro funzionale porta al guasto
 I modelli di deterioramento si basano: Sulla conoscenza, su basi empiriche, della relazione stress-deterioramento
come funzione del tempo e dell'ampiezza della sollecitazione
 Il modello di Arrhenius correla: La velocità di una reazione chimica alla temperatura assoluta tramite una funzione
esponenziale
 Il modello di Eyring rappresenta: Una riformulazione del modello di Arrhenius, che consente di considerare
ulteriori sollecitazioni oltre la temperatura
 La Carta di Arrhenius ha come assi: Log(Durata), 1/Temperatura
 Secondo il modello della potenza inversa, il tempo necessario a raggiungere il termine della vita è: Inversamente
proporzionale al valore della sollecitazione elevato ad un potenza n, con n costante determinata empiricamente
 Le prove di vita accelerata su un componente sono: Processi che lo portano rapidamente ad una capacità
funzionale rappresentativadi quella che si avrebbe con invecchiamento naturale per un lungo periodo di tempo
 Se un'apparecchiatura, nel tempo, viene sottoposta a diversi regimi di sollecitazione, l'invecchiamento
complessivo sarà: Pari alla somma degli invecchiamenti determinati nei diversi periodi
 La durata di un componente in condizioni di servizio variabili è determinabile: Quando è noto il tempo di durata di
ogni sollecitazione
 La durata della vita del componente varia: Con legge esponenziale, in ragione dell’inverso della temperatura di
servizio
 Nell'esempio di calcolo proposto, la durata in esercizio a T=55°C sarà: Compresa tra 4 e 26.7 anni.
 Il costo della "non qualità" di un bene è sopportato: Dall'utilizzatore, dal produttore e dall'intera società
 Il costo della "non qualità" va rapportato: Alla durata di vita prevista del bene
 Per ridurre il costo di non qualità: È utile investire nella progettazione
 Tutte le produzioni rientranti integralmente nel range di ammissibilità: Sono tanto migliori quanto più la media è
vicina al valore obiettivo e quanto minore è la varianza
 Utilizzando la funzione perdita di qualità a gradino: Il bene è idoneo se il suo indice di qualità rientra nel limite di
tolleranza, altrimenti un costo di non qualità costante
 La funzione perdita di qualità quadratica: È valida nell'ipotesi che l'indice di qualità abbia un valore obiettivo
diverso da zero e che il valore della perdita sia simmetrico ai due lati dell'obiettivo
 Una decisione basata sulla funzione perdita di qualità è influenzata: Dalla sensibilità ai rumori e dallo scostamento
della media rispetto al valore atteso
 Il rapporto segnale/rumore: È una grandezza numerica che mette in relazione la potenza del segnale utile rispetto
a quella del rumore
 Un rapporto segnale/rumore tendente all'infinito determina: Un costo della non qualità tendente a zero
 Un rapporto segnale/rumore tendente a zero determina: Un costo della non qualità tendente a infinito.
 Il costo della "non qualità" di un bene è sopportato: Dall'utilizzatore, dal produttore e dall'intera società
 Il costo della "non qualità" è: Una componente, insieme al costo di funzionamento, del costo totale di un prodotto
 Il costo della "non qualità" va rapportato: Alla durata di vita prevista del bene
 Per ridurre il costo di non qualità: È utile investire nella progettazione
 Tutte le produzioni rientranti integralmente nel range di ammissibilità: Sono tanto migliori quanto più la media è
vicina al valore obiettivo e quanto minore è la varianza
 Utilizzando la funzione perdita di qualità a gradino: Il bene è idoneo se il suo indice di qualità rientra nel limite di
tolleranza, altrimenti un costo di non qualità costante
 La funzione perdita di qualità quadratica: È valida nell'ipotesi che l'indice di qualità abbia un valore obiettivo
diverso da zero e che il valore della perdita sia simmetrico ai due lati dell'obiettivo
 Nell'applicazione relativa al calcolo del minimo della funzione di perdita, se il dispositivo viene fatto funzionare ad
una tensione V=118V ci aspettiamo: Un costo della non qualità L3 incrementato rispetto al valore L2 di oltre
l'800%
 Nell'applicazione relativa al calcolo del minimo della massima tolleranza ammissibile, se la tolleranza del processo
è pari al 7%, il costo della non qualità sarà: Inferiore a 100 euro
 Nell'applicazione relativa al calcolo della percentuale di perdita economica, essa per V2 pari a 122 V sarebbe:
Superiore al 300%.
 La definizione corrente di Qualità è: Insieme delle caratteristiche di una entità che ne determinano la capacità di
soddisfare esigenze espresse ed implicite
 Quando i servizi siano resi in regime di monopolio reale: Non sussiste la funzione di stimolo al miglioramento
continuo espletata dalla concorrenza
 I presupposti culturali per le scelte possono essere di tipo: Conseguenzialistico o deontologico
 L'approccio conseguenzialistico è orientato: Alla massimizzazione dell'utilità sociale, ossia al conseguimento della
massima utilità per il maggior numero di persone
 L'approccio deontologico è orientato: All'individuazione e al rispetto dei diritti inalienabili dei diversi soggetti
sociali, nell'ottica dell'eguaglianza
 Gli indicatori interni devono consentire la verifica che: Il servizio è stato realizzato secondo il progetto e che la sua
erogazione avviene secondo gli standard prefissati
 Gli indicatori esterni: Rilevano il livello di qualità percepito dal cliente
 La qualità relazionale risponde alla domanda: Come si fornisce il servizio
 I bisogni espliciti sono quelli che: Il cliente è in grado di esprimere chiaramente, pur con il linguaggio e le forme a
lui più congeniali
 I bisogni latenti sono quelli che: Il cliente non è in grado di dichiarare, di esprimere fino a quando non ne prova la
soddisfazione e ne conosce i benefici.
 Con la Carta dei Servizi: Il fornitore dichiara a priori quali sono le prestazioni erogate, quale impegno assume con
gli utenti e come intende operare in caso di non rispetto delle prestazioni promesse
 Gli indicatori di prestazione definiti nella Carta dei Servizi devono essere: Significativi, validi, rilevabili, sensibili
 Dire che la Carta dei Servizi deve essere dinamica significa che: Essa dovrebbe essere aggiornata e revisionata non
solo in caso di significativi cambiamenti, ma anche ad intervalli periodici predefiniti
 L'autovalutazione consente di perseguire: La diagnosi organizzativa finalizzata al miglioramento delle
performance
 La certificazione UNI EN ISO 9000 attesta: L'adozione di un sistema di gestione per la qualità
 La certificazione UNI EN ISO 9000 può essere rilasciata da: Enti di Certificazione accreditati da ACCREDIA
 Il metodo Servqual è: Un sistema di valutazione della qualità dei servizi sviluppatosi in ambito accademico e
aziendale
 Il metodo Servqual definisce la Qualità del Servizio: Come divario o 'gap' tra i desideri e le percezioni dei clienti
 Quale di questi scostamenti non è tra quelli sulla cui rilevazione si basa il metodo Servqual: Scostamento tra il
costo del servizio e l'importo che il cliente sarebbe disposto a pagare
 Un blue-print è: Una rappresentazione grafica in cui vengono riportate tutte le operazioni compiute dal cliente e
dal personale dell'azienda durante l'erogazione del servizio.
 Il metodo Servqual è: Un sistema di valutazione della qualità dei servizi sviluppatosi in ambito accademico e
aziendale
 Il metodo Servqual definisce la Qualità del Servizio: In funzione del divario o 'gap' tra i desideri e le percezioni dei
clienti
 Il metodo Servqual non si basa su uno dei seguenti scostamenti: Scostamento tra il costo del servizio e l'importo
che il cliente sarebbe disposto a pagare
 Si definisce blueprint: Una rappresentazione grafica in cui vengono riportate tutte le operazioni compiute dal
cliente e dal personale dell'azienda durante l'erogazione del servizio
 Nel condurre l'indagine sperimentale per l'applicazione del sistema Servqual è necessario realizzare:
Un'opportuna stratificazione del campione
 Aumentando la numerosità del campione: L'indagine diviene statisticamente più significativa
 Il PSG, nel metodo Servqual, è: Il Punteggio Servqual Globale
 Nel caso in cui l'aspettativa di qualità ha valore 6 e la percezione di qualità ha valore 8, il PSG è pari a: 2
 Se i punteggi assoluti di aspettativa e percezione della qualità vanno da 1 a 10, il PSG è compreso tra: 𔃇 e +9
 Una volta identificati gli indicatori esterni più critici, è opportuno individuare: Le azioni correttive da attuare.
 Il metodo Tenner è basato: Sul Ciclo di Deming
 L'acronimo PDCA sta per: Plan, Do, Check,Act
 Il metodo Tenner consente: La gestione globale di un processo industriale o di erogazione di un servizio
 La logica RADAR è un'applicazione evoluta: Del Ciclo di Deming
 In un modulo RADAR, le direttrici di valutazione sono: Risultati, Approccio, Sviluppo, Riesame
 L'assessment RADAR, sulle varie direttrici, prevede l'attribuzione: Di un punteggio discreto su 5 livelli: 0 %, 25 %,
50 %, 75 %, 100 %
 Il metodo ServFMEA consente di: Individuare precocemente gli eventi indesiderati più probabili, pericolosi e
difficilmente rilevabili
 L'indice di Occorrenza rappresenta: La probabilità condizionata che si verifichi una non conformità nell'erogazione
del servizio, data una specifica causa
 L'indice di Severità rappresenta: Il giudizio che l'analista esprime in merito alla gravità delle conseguenze di una
non conformità
 L'indice di Rilevabilità rappresenta: La misura della probabilità che una non conformità risulti rilevabile prima che
essa provochi danni.
 In assenza di cause speciali o errori sistematici, le variazioni nella qualità del prodotto hanno origine: Casuale
 In una distribuzione normale la probabilità che un risultato di misura sia compreso in un intervallo ampio 6 volte
sigma intorno alla media è pari: Al 99,73%
 Con il "test del chi quadro" è possibile verificare che: La distribuzione dei dati rilevati sia di origine casuale
 La numerosità del campione di misura oltre la quale una variabilità causale genera sempre una distribuzione
normale è: 30
 Le carte di controllo X sono quelle che riportano in ordinate: I valori medi rilevati in corrispondenza dei valori
temporali riportati sulle ascisse
 Le carte di controllo R sono quelle che riportano in ordinate: Gli intervalli di escursione (range) dei valori rilevati
per diversi valori temporali sulle ascisse
 Le carte X-R sono: Due diagrammi distinti, che hanno in comune la scala delle ascisse
 Nelle carte X-R, gli acronimi UCL e LCL indicano: Il Limite Superiore di Controllo (LSC) e il Limite Inferiore di
Controllo (LIC)
 Se un processo dà luogo ad una distribuzione traslata rispetto al valore atteso in direzione positiva, la probabilità
che un punto cada al di fuori del Limite Superiore di Controllo (LSC) è: Superiore rispetto alla probabilità che un
punto cada al di fuori del Limite Inferiore di Controllo (LIC)
 Nelle carte R, oltre la linea che indica l'escursione media, viene riportata una linea che indica: Il Limite Superiore
di Controllo.
 Nelle carte di controllo X-R: Si riportano i dati di valore medio e di escursione di misure su campioni, nell'ordine di
successione temporale con cui sono stati rilevati
 Una carta p riporta: La frazione p di elementi non conformi di una determinata produzione a partire dai dati di
conteggio
 La distribuzione caratteristica delle frazioni di non conformi è di tipo: Binomiale
 I limiti di controllo di una carta p sono costanti quando: La numerosità n del campione è costante
 Si utilizza una carta p stabilizzata quando: La numerosità del campione per le diverse osservazioni è variabile
 I limiti di controllo di una carta p stabilizzata sono: LCL= -3, UCL = 3
 Se il rapporto tra le non conformità rilevate su un singolo provino e il numero n di punti di rilevazione è molto
piccolo: La distribuzione campionaria dei dati approssima molto bene quella di Poisson
 Nella distribuzione di Poisson, lo scarto quadratico medio è: Pari alla radice quadrata della media delle non
conformità unitarie
 In una carta c revisionata si riportano: Sulle ascisse il numero ordinale del provino, sulle ordinate il numero di non
conformità ad esso relative
 Qualora un provino evidenzi un rapporto tra non conformità e punti di rilevazione superiore al limite superiore di
controllo: Lo si esclude dalla carta e si procede al ricalcolo della media delle non conformità unitarie e dei limiti di
controllo superiore ed inferiore.
 È importante che i punti riportati sulle carte di controllo rappresentino: Sottogruppi omogenei
 Se una carta di controllo indica una situazione di fuori controllo, è possibile individuare pià agevolmente le cause
se: I punti rappresentati appartengono a sottogruppi omogenei
 In una distribuzione normale, all'aumentare della numerosità del campione, i limiti di controllo: Si avvicinano alla
media
 Una maggiore frequenza del campionamento implica: Una migliore protezione dal rischio di non individuare con
immediatezza l'insorgenza di cause speciali
 L'esame del campione viene eseguito considerando: Il valore dei punti rappresentativi dei campioni esaminati e
l'andamento della sequenza con cui si presentano
 Si ha una sequenza positiva di lunghezza N quando: Sulla carta sono rappresentati N punti consecutivi di valore
crescente
 Si ha una sequenza sopramedia di lunghezza N quando: Sulla carta sono rappresentati N punti consecutivi di
valore maggiore della media
 Le carte CUSUM, rispetto alle carte Shewhart: Consentono di percepire con immediatezza anche cause speciali tali
da provocare piccole variazioni
 Per monitorare una causa speciale che provoca una deriva verso l'alto dell'indice controllato, si usa: Comparare
l'ultimo dato cumulativo con quello di minor valore riportato sulla carta e verificare che la differenza non superi
un prefissato valore
 La carta CUSUM modificata si usa per: Evitare, con una oculata scelta del valore K, di prendere in considerazione
cause dagli effetti scarsamente rilevanti.
 Considerato che ogni misura è affetta da un'incertezza, la stima del misurando può essere ottenuto: Individuando
la media e lo scarto quadratico medio in una serie ripetuta di misure
 Lo studio della process capability serve: Ad osservare il processo per valutare la capacità a garantire prodotti in
specifica
 Un processo non può avere una buona capability se: L'incertezza di misura è maggiore della tolleranza ammessa
 La probabilità che il valore di misura di uno strumento digitale sia compreso tra il valore mostrato dal display e
quello che incrementa di un'unità l'ultima cifra visualizzata si assume convenzionalmente pari a: 100%
 La classe di uno strumento deve garantire che l'ultima cifra significativa rappresenti un valore: Trascurabile
rispetto alla tolleranza indicata dalle specifiche
 Utilizzando un calibro digitale che rappresenta come ultima cifra significativa i millimetri per misurare uno
spessore con tolleranza ammessa di ± 1 millimetro: L'intervallo di incertezza è pari al 50% della tolleranza
ammessa
 Utilizzando uno stumento numerico, l'intervallo 2a di incertezza è: Maggiore dell'incertezza standard di una
distribuzione normale
 La probabilità complessiva di assumere una decisione sbagliata è pari: Alla somma tra il rischio di tipo α e il rischio
di tipo β
 La probabilità che si commetta un errore nel considerare il processo fuori specifica quando invece esso è in
controllo è pari alla probabilità che : Il processo si trovi in prossimità del limite di specifica (ma entro tale limite),
pesata con la probabilità che l'incertezza di misura porti il dato misurato oltre il limite di specifica
 Dette a l'incertezza, δ la tolleranza e σ lo scarto q.m., le probabilità di non corretta decisione diminuiscono: Al
ridursi del rapporto a/σ e al crescere del rapporto δ/σ.
 Nello studio sperimentale di un sistema su basi statistiche: È utile definire quantitativamente i rischi di sbagliare
nell'assumere una decisione piuttosto che un'altra
 L'impostazione delle ipotesi è la fase in cui: Si definiscono due ipotesi: l'ipotesi nulla e l'ipotesi alternativa,
formulata in maniera esclusiva rispetto a quella nulla
 La regione di accettazione si definisce come: L'intervallo entro il quale è necessario che cadano i valori del
campione affinché sia accettata come vera l'ipotesi nulla
 La regione di accettazione e la regione di rifiuto: Hanno intersezione nulla
 Generalmente, il test statistico sull'ipotesi nulla: Consente di provarne agevolmente la falsità mentre è più difficile
provarne la verità
 La tabella di verità associata ad un test delle ipotesi: Schematizza le quattro possibili combinazioni tra decisione
(vera/falsa) e realtà (vera/falsa) relative all'ipotesi nulla
 L'errore di I tipo (α) consiste nel: Rigettare l'ipotesi nulla Ho quando essa è vera
 L'errore di II tipo (β) consiste nel: Accettare l'ipotesi nulla Ho quando essa è falsa
 L'ipotesi si dice bilaterale: Quando esiste una popolazione statistica entro la quale è verificata e due popolazioni
ad essa esterne entro le quali non è verificata
 Nella comparazione delle ipotesi per la media e per la varianza, le ipotesi nulla / alternativa sono del tipo: La
diversità esiste / la diversità non esiste.
 La decisione presa a seguito di un test statistico: Non è certamente corretta in quanto l'aleatorietà del fenomeno
in esame potrebbe averne falsato le conclusioni
 La significatività di una valutazione in presenza di eventi aleatori dipende da: Il numero di esperimenti eseguiti
 L'errore di I tipo (α) consiste nel: Rigettare l'ipotesi nulla Ho quando essa è vera
 L'errore di II tipo (β) consiste nel: Accettare l'ipotesi nulla Ho quando essa è falsa
 La tabella di verità associata ad un test delle ipotesi: Schematizza le quattro possibili combinazioni tra decisione
(vera/falsa) e realtà (vera/falsa) relative all'ipotesi nulla
 Dire che l'ipotesi nulla è rifiutata al livello di significatività α significa: Che c'è un rischio α di sbagliare nell'aver
preso la decisione di rifiutare l'ipotesi nulla
 Il rischio α è definito: A priori all'atto dell'impostazione del test
 Le ipotesi sono tradotte in criterio formale di decisione: Definendo una figura di merito, scegliendo una
corrispondente statistica di riferimento, confrontando i valori numerici dell'una e dell'altra per il problema in
esame
 Un test delle ipotesi si dice bilaterale: Quando la regione di rifiuto è suddivisa in due parti, corrispondenti
rispettivamente a delle probabilità ⓫ e ⓬
 Il rischio β rappresenta la probabilità che: Un'occorrenza aleatoria faccia apparire la figura di merito nella regione
di accettazione.
 Il collaudo campionario in campo industriale prevede che: Si stabiliscano i criteri di accettazione o rifiuto dei lotti e
si determini la numerosità dei campioni da sottoporre a prova
 La distribuzione campionaria delle medie di popolazioni qualsiasi di media ╘ e scarto tipo σ è: Normale gaussiana
con media pari a ╘ e scarto tipo pari a σ diviso la radice quadrata di n, dove n è la numerosità del campione
 La funzione β(µ), detta caratteristica operativa del test: Tende al valore 1–α per µ che tende al valor atteso ‫ ܒ‬e
tende a zero per µ che tende a + infinito e a – infinito
 La potenza del test 1-β, ossia la confidenza nel rigettare l'ipotesi nulla se falsa: Aumenta all'aumentare della
numerosità del campione, ossia dello sforzo sperimentale
 Nel caso che il risultato sperimentale risulti interno alla regione di accettazione: L'ipotesi nulla viene accettata al
livello di significatività 1-α, cioè si è fiduciosi all'1–α di aver preso la decisione giusta
 Si definisce piano di campionamento: La procedura di impostazione del corrispondente test delle ipotesi che
porta alla determinazione della numerosità del campione
 Il livello di qualità accettabile LQA è: Il livello di qualità per il quale il fornitore ammette un rischio pari ad α di
vedersi respingere un lotto conforme
 Il livello di qualità tollerabile LQT è: Il livello di qualità per il il quale il cliente ammette un rischio pari a β di
accettare un lotto non conforme
 In un piano di campionamento doppio: Vengono inizialmente determinati il numero di unità da esaminare per il
primo e per un secondo campione, nonché i corrispondenti limiti di accettazione e rifiuto per entrambi i campioni
 L'impostazione del piano di campionamento con schema di commutazione: Prevede il passaggio al collaudo
ridotto quando si riceve una fornitura la cui qualità risulta dal collaudo sistematicamente migliore di quanto
previsto in contratto.
 Si definisce ANOM: L'analisi della media
 L'analisi della media è volta a: Attenuare gli effetti delle cause di variabilità aleatoria e determinare gli effetti di più
parametri su una caratteristica di un sistema
 Si definisce ANOVA: L'analisi della varianza
 L'analisi della varianza ha come obiettivo: Analizzare l'influenza di uno o più parametri o della non qualità degli
stessi fattori sulle prestazioni di un sistema
 Per eseguire l'ANOM: Si calcola la media della caratteristica di qualità in tutti gli N esperimenti, poi si stimano le
medie locali degli esperimenti eseguiti al variare di ciascun parametro d'influenza, infine si valutano gli effetti dei
parametri, a ciascun loro livello, come differenze tra le medie locali e la media totale
 Per verificare sperimentalmente se l'incertezza di una grandezza dipenda o meno dall'incertezza di alcuni
parametri si utilizza: L'ANOVA
 L'ANOVA è utile per valutare: La variazione deterministica all'interno di un intervallo di ampiezza prefissata di uno
o più parametri o la variazione aleatoria all'interno della fascia di incertezza di uno o più parametri
 Si utilizza la tecnica no-way ANOVA per valiutare l'effetto della variazione di: Tutti i parametri globalmente
 Si utilizza la tecnica one-way ANOVA per valiutare l'effetto della variazione di: Un solo parametro
 Si utilizza la tecnica two-way ANOVA per valiutare l'effetto della variazione di: Due parametri.
 L'ipotesi nulla: rappresenta l'ipotesi da verificare
 Si definisce errore di primo tipo: Il rischio di sbagliare nel riggettare l'ipotesi nulla quando questa essa sia vera
 Con la definizione di funzione potenza del test ci si riferisce: Alla funzione 1-β
 La determinazione dei rischi di errare: Viene presa a seguito di un test statistico
 Il valore di beta: Quantifica la possibilità di sbagliare accettando l'ipotesi nulla
 In generale, il rischio β e la potenza del test 1-β dipendono: Dalla numerosità del campione e dalla realtà dei fatti
 Se si vuole realizzare una procedura di decisione con maggiore capacità discriminante: È necessario investire un
capitale maggiore nella sperimentazione
 La regione di accettazione: Ha intersezione nulla con la regione di rifiuto
 Nell'applicazione di verifica della significatività del test, se a valle della modifica del processo la durata di vita
registrata fosse stata di 26000 ore: Al livello di significatività del 5% si sarebbe rifiutata a maggior ragione l'ipotesi
nulla
 Nell'applicazione di calcolo della probabilità di commettere un errore, se la media del campione fosse stata pari a
quella della popolazione: Si sarebbe accettata a maggior ragione l'ipotesi nulla, affermando che il nuovo processo
produttivo è uguale al precedente.
 La tetanizzazione è: Il blocco della muscolatura
 Il diagramma delle zone di pericolosità della corrente elettrica: Relaziona i valori della corrente e il tempo di
elettrocuzione al danno potenziale
 Il contatto indiretto si verifica quando: La persona entra in contatto con masse che vanno in tensione a causa di
guasto dell'isolamento
 La resistenza di un contatto indiretto è dell'ordine : Dei kiloohm (kΩ)
 Il collegamento a terra delle masse ha l'obiettivo di: Ridurre la corrente che attraversa il corpo umano in
condizioni di contatto indiretto
 Senza il collegamento a terra delle masse: In caso di guasto, non avviene l'interruzione automatica del circuito, se
non a seguito di un contatto indiretto
 Per un interruttore automatico, la velocità di apertura dei contatti dipende: Dal cinematismo dell'interruttore
 In un interruttore magnetotermico, le funzioni dei due relé sono: Quello termico protegge i conduttori dal
sovraccarico, quello magnetico protegge dal cortocircuito
 Un interruttore differenziale apre il circuito quando: Viene meno l'equilibrio tra le correnti di fase e di neutro
 La tensione di passo è: Quella misurata tra due punti del terreno posti alla distanza di un metro.
 Gli impianti in bassa tensione sono quelli: Con tensione fino a 1000 V in corrente alternata e 1500 V in corrente
continua
 La norma CEI di riferimento per gli impianti a bassa tensione è: La Norma CEI 64-8
 Un sistema di distribuzione TT prevede: Collegamento diretto a terra del neutro del sistema di alimentazione e
masse collegate direttamente a terra
 Nel sistema TT si assume che: Gli impianti di terra della cabina di distribuzione e dell’impianto utilizzatore siano
separati
 La selettività amperometrica si utilizza quando: Le correnti di cortocircuito degli interruttori differenziali delle
sezioni a valle e a monte sono molto diverse da loro
 Un sistema di distribuzione TN prevede: Collegamento diretto a terra del neutro del sistema di alimentazione,
masse collegate al punto messo a terra nel sistema di alimentazione
 Il sistema TN si utilizza: Nel caso di utenze con cabina di trasformazione propria, come le utenze industriali,
ospedali, alberghi, centri commerciali e simili
 Per ottenere la sicurezza, la corrente di guasto deve essere: Maggiore della corrente che sicuramente provoca
l’apertura dell’interruttore entro i tempi stabiliti
 Un sistema di distribuzione IT prevede: Isolamento da terra del neutro del sistema di alimentazione, masse
collegate direttamente a terra
 In un sistema IT la corrente di guasto si può richiudere verso il generatore di alimentazione: Solo come corrente di
dispersione, attraverso le capacità distribuite della linea.
 L'elemento, tra quelli elencati, che non fa parte dell'impianto di terra è: L'interruttore differenziale
 Le dimensioni minime e i materiali da utilizzare per i dispersori intenzionali sono stabilite da: La Norma CEI 64-8/5
 La resistività del terreno è variabile in base a: Il suo grado di umidità
 Un dispersore è un parallelo perfetto di dispersori elementari quando: Ogni singolo picchetto è posizionato ad una
distanza dagli altri tale che i campi di dispersione non si sovrappongano
 La sezione del conduttore di terra si può determinare in funzione: Dell’energia specifica lasciata passare dalla
protezione nel tempo di intervento e delle caratteristiche del materiale
 Se il conduttore di terra viene interrato nudo e senza protezione meccanica: Necessita di una sezione maggiore
rispetto a quella prevista per la posa con rivestimento anticorrosione e tubo di protezione
 Il conduttore di protezione (PE o PEN): Garantisce, insieme all’interruttore automatico, la protezione dai contatti
indiretti
 Gli elementi dell'impianto che non vanno collegati al conduttore di protezione sono: Gli apparecchi di classe II
 Il colore caratteristico del rivestimento del conduttore di protezione è: Giallo e verde
 I collegamenti equipotenziali principali: Collegano le masse estranee di base dell'edificio al nodo principale di
terra.
 Il metodo voltamperometrico per la misurazione della resistenza di terra: È una misura indiretta, basata sulla
misurazione della corrente iniettata dal generatore e dalla tensione nella condizione di flesso
 La ricerca della condizione di flesso del profilo dei potenziali: Consente di individuare il punto in cui va collegata la
sonda di tensione
 Per la misura della resistività, si utiizzano: Due sonde di corrente e due sonde di tensione, alternate in modo che
quelle di tensione siano nel mezzo e siano tutte equidistanti
 La misura della resistenza complessiva del circuito di guasto a terra si utilizza: Nei sistemi TT, per i quali è molto
difficile porre la sonda di corrente a una distanza pari a 5 volte l'ampiezza dell'impianto in prova
 Il meter misura la resistenza complessiva del circuito di guasto a terra: Operando due letture successive della
tensione tra fase e terra, la prima a vuoto e la seconda dopo aver chiuso il contatto sulla sua resistenza interna di
valore noto
 La misura della resistenza dell'anello di guasto nei sistemi TN si effettua con il metodo dell'alimentazione separata
perché: Il meter è inadatto in quanto misura la caduta di tensione sull'impedenza dell'anello di guasto, che è
trascurabile
 La corrente nominale di un interruttore differenziale è: La corrente, indotta nella bobina di rilevazione dalla
differenza tra le correnti che percorrono i conduttori di fase e di neutro, oltre il quale sicuramente l’interruttore
interviene
 La selettività amperometrica prevede: Che le protezioni più a valle siano tarate sulle correnti nominali più basse, e
quelle a monte su correnti nominali via via crescenti
 La selettività cronometrica prevede: Che le protezioni a valle e a monte siano tarate tutte sulla stessa corrente
nominale, ma con tempi di intervento via via crescenti da valle a monte
 La Norme prescrivono che durante la prova di funzionamento degli interrruttori differenziali: La tensione sul
conduttore di protezione PE, dunque su tutte le masse a questo collegate, non superi la tensione limite di 50 V.

Potrebbero piacerti anche