Radiotelevisione

Enciclopedia del Novecento (1980)

Radiotelevisione

GGian Carlo Corazza
Gino Sangiovanni e John B. L. Manniello

Radiocomunicazioni, di Gian Carlo Corazza

Comunicazioni televisive, di Gino Sangiovanni e John B. L. Manniello

Radiocomunicazioni

SOMMARIO: 1. Introduzione. □ 2. Irradiazione e propagazione. □ 3. Antenne. □ 4. Rumore. □ 5. Architettura e caratteristiche generali di un sistema di radiocomunicazioni. □ 6. Sistemi di radiocomunicazioni. □ 7. Problemi e prospettive futuri. □ Bibliografia.

1. Introduzione.

L'azione del comunicare è un'azione di fondamentale importanza per l'uomo in quanto vive in una comunità.

In qualunque tipo di comunicazione si possono individuare sempre almeno una sorgente di informazione e un destinatario o utilizzatore della medesima.

La trasmissione dell'informazione avviene mediante la trasmissione di materia, o di materia ed energia, o di energia. Una lettera è un esempio di comunicazione effettuata mediante trasmissione di sola materia, in cui il foglio di carta costituisce per l'appunto il supporto materiale dell'informazione. A sua volta un sasso lanciato contro il vetro di una finestra può essere un esempio di trasmissione di materia ed energia volta a comunicare a chi sta all'interno della stanza la presenza di un'altra persona all'esterno. Per quanto riguarda le comunicazioni effettuate con la trasmissione di sola energia non occorre citare esempi, dato che le comunicazioni audiovisive, cioè quelle a cui più frequentemente ricorriamo, rientrano in tale categoria.

Se la comunicazione avviene per trasmissione di sola energia, possiamo operare una distinzione a seconda che vi sia o meno necessità di un mezzo materiale perché avvenga la trasmissione. È infatti noto che, mentre le onde sonore non si propagano nel vuoto, quelle luminose possono farlo, per cui la presenza di un mezzo materiale, pur influenzandole, non è essenziale al loro manifestarsi.

Perché una comunicazione sia qualitativamente buona è necessario: 1) che il messaggio non venga distorto, ossia si presenti al destinatario come una copia fedele di quello inviato dalla sorgente; 2) che il messaggio possa essere riconosciuto anche in presenza di ‛rumore' (intendendo questa parola in senso molto lato, come qualcosa di caotico che si sovrappone al messaggio rendendolo più difficilmente intelligibile) o di ‛interferenza' (in questo caso ciò che si sovrappone al messaggio non è caotico ma è sovente un altro messaggio della stessa natura). Un esempio cospicuo è offerto dalla diffusione sonora effettuata in una stazione ferroviaria mediante un impianto di non buona qualità. In tal caso l'apparecchiatura determina una distorsione del messaggio letto dall'annunciatore, mentre il rumore ambientale, in particolare quello dovuto ai treni, ne rende difficoltosa l'intelligibilità; altrettanto può dirsi per l'interferenza dovuta a qualcuno che parla a voce alta nei pressi di chi ascolta. Tralasciando per il momento la distorsione, consideriamo nell'esempio citato i modi di far fronte al rumore e all'interferenza. All'ovvio, ma improponibile, provvedimento di far tacere chi parla, fermando contemporaneamente i treni, si aggiunge la possibilità di far emettere più potenza all'impianto di amplificazione, cioè di farlo parlare a voce più alta. Ciò mette in evidenza un fatto di importanza fondamentale nelle comunicazioni, e precisamente che quello che importa non è tanto l'entità assoluta del segnale, quanto il suo valore rispetto a quello del rumore e/o dell'interferenza. È peraltro da tener presente che la potenza emettibile ha limiti superiori dovuti da un lato alla realizzabilità fisica dell'impianto e dall'altro alla necessità di non arrecare disturbo a chi non è destinatario della comunicazione.

Un'ultima considerazione di carattere generale riguarda il tempo necessario per effettuare la trasmissione dell'informazione. Un sistema di comunicazioni è tanto migliore, sotto questo punto di vista, quanto più breve è l'intervallo di tempo necessario per trasferire l'informazione dalla sorgente al destinatario.

Tenendo presenti queste considerazioni si può affermare che non esiste un sistema di comunicazioni che sia il migliore in assoluto; pertanto di volta in volta si deve fare ricorso a quel sistema che in modo più economico soddisfi alle esigenze di una sorgente e di uno o più destinatari. Fra due persone vicine, ad esempio, il sistema più conveniente è quello di una trasmissione sonora, sempre che uno o entrambi gli interessati non siano sordi e/o muti, nel qual caso essa deve essere visiva. Se la distanza fra sorgente e destinatario è grande, si può invece fare ricorso alla posta o alle comunicazioni elettriche, dette anche telecomunicazioni, se l'aspetto economico non è tale da sconsigliarne l'utilizzazione.

Le comunicazioni elettriche si prestano a trasmettere sia informazioni audio, sia informazioni video; inoltre esse sono particolarmente adatte a trasmettere dati relativi a sistemi di controllo e di elaborazione, in quanto tali dati o sono associati al valore di particolari grandezze elettriche o sono facilmente traducibili in valori di grandezze di tale tipo, mediante trasduttori. Esse possono avvenire utilizzando onde elettromagnetiche guidate o libere. Nel primo caso fra sorgente e utilizzatore è necessario predisporre un sistema materiale che ha appunto la funzione di guidare l'onda elettromagnetica; nel secondo invece il mezzo interposto fra sorgente e utilizzatore non viene modificato (casi in un certo senso intermedi si hanno quando si usano specchi elettromagnetici, cioè grandi piastre conduttrici aventi la funzione di riflettere le onde elettromagnetiche, oppure sistemi di lenti elettromagnetiche aventi lo scopo di tenere affasciata l'energia; in entrambi i casi si potrebbe parlare di onde guidate in punti discreti anziché di onde guidate con continuità, ma in pratica ciò vale solo per le lenti, mentre gli specchi sono considerati ripetitori passivi di un sistema a propagazione libera). È evidente che, salvo casi particolarissimi (ad es. teleguida di un missile su distanze relativamente brevi), le onde guidate possono essere impiegate soltanto fra punti fissi, mentre quelle a propagazione libera sono adatte per comunicare sia fra punti fissi, sia fra punti mobili.

Le comunicazioni elettriche basate sulle onde elettromagnetiche a propagazione libera vengono dette ‛radiocomunicazioni'. Esse saranno l'argomento di questo articolo.

2. Irradiazione e propagazione.

Il fenomeno di base nelle radiocomunicazioni consiste nel fatto che, come conseguenza del movimento di cariche elettriche situate in una determinata regione dello spazio, si pongono in movimento cariche elettriche situate in regioni dello spazio non contigue a quella. Il meccanismo di tale fenomeno può essere descritto facendo ricorso al concetto di campo di forza, cioè a una funzione vettoriale di punto. In tale schematizzazione le cariche in movimento vengono associate a correnti di conduzione o a correnti di convezione. Queste ultime (tutte al finito) possono essere in molti casi considerate, con buona approssimazione, un dato del problema (correnti impresse). In tale ipotesi il problema che si deve risolvere è quello di determinare il campo elettromagnetico Sostenuto in tutto lo spazio da date correnti impresse. In un mezzo omogeneo, isotropo e lineare esso può essere agevolmente affrontato per via matematica risolvendo un sistema di due equazioni (dette di Maxwell) e adottando quale soluzione del problema fisico quella soluzione del problema matematico che, in presenza di perdite comunque piccole nel mezzo, tenda a zero più rapidamente dell'inverso della distanza del punto di osservazione da un qualsiasi punto fisso al finito. Le equazioni di Maxwell, nelle unità del sistema internazionale, si scrivono in tal caso

Formula

essendo E l'intensità di campo elettrico; H quella di campo magnetico; t il tempo; ε (costante dielettrica o permettività), μ (permeabilità magnetica) e γ (conducibilità) costanti caratteristiche del mezzo; J la densità delle correnti impresse. Gli operatori differenziali rot (rotore) e ῼ/ῼt (derivata parziale rispetto al tempo) permettono quindi di stabilire un legame fra le due intensità di campo e la densità di corrente impressa, tenuto conto del mezzo. La corrispondenza fra E, H e J è resa biunivoca dalla condizione, prima ricordata, del comportamento all'infinito della soluzione matematica adottabile come soluzione del problema fisico. Cambiando il mezzo, a J costante, cambia il campo. È importante sottolineare che le equazioni di Maxwell valgono anche nel caso in cui il mezzo sia il vuoto, nel qual caso si ha γ=0; ε=ε0=8,86×10-12 [F/m]; μ=μ0=4π×10-7 [H/m]. Si supponga ora di prendere una carica elettrica sufficientemente piccola e puntiforme, dotata di velocità u, e di introdurla nel campo elettromagnetico generato da date densità di corrente impressa; su di essa agisce una forza (detta di Lorentz)

F=q(E+μu⋀H),

essendo E, H i valori dei campi nel punto in cui è collocata la carica e ⋀ il segno di prodotto vettoriale. Per effetto della forza F, dovuta alle correnti impresse, la carica q può mettersi in movimento anche se è situata a distanza molto grande dalla regione in cui le densità delle correnti impresse sono diverse da zero.

È di grande interesse il fatto che la teoria matematica relativa al fenomeno dell'irradiazione elettromagnetica sia stata formulata da Maxwell nel 1864, assai prima della constatazione su base sperimentale del fenomeno. Questa verifica è stata effettuata da Hertz, che realizzò a tal fine il suo famoso oscillatore. In Italia grande impegno nel riscontro sperimentale della teoria di Maxwell è stato profuso da Righi, con risultati di estremo interesse in particolare nella verifica di uno degli enunciati più notevoli della teoria stessa e precisamente di quello che afferma che le onde luminose sono onde elettromagnetiche. Gli studi sui fenomeni elettromagnetici culminarono, dal punto di vista dell'applicazione, con l'opera di Guglielmo Marconi. Nel 1894 questi, dopo aver ripetuto gli esperimenti di Hertz e di Righi, si convinse che era possibile utilizzare le onde elettromagnetiche per una telegrafia senza fili, in alternativa a quella sino allora effettuata mediante coppie di fili conduttori. Questo obiettivo lo indusse a muoversi in direzione opposta a quella seguita dai suoi illustri predecessori. Non si trattava infatti di verificare l'ottica delle onde elettromagnetiche, ma piuttosto di dimostrare che a frequenze sufficientemente basse il comportamento delle onde elettromagnetiche era del tutto diverso da quello delle onde luminose, nelle stesse condizioni ambientali. Solo in tal caso, infatti, avrebbe avuto una probabilità di successo un sistema di telegrafia senza fili, dato che occorreva essere in grado di superare gli ostacoli che necessariamente si sarebbero frapposti fra trasmettitore e ricevitore quando questi fossero ubicati a una distanza significativa per un servizio telegrafico. In un imprecisato giorno della primavera del 1895 nacquero a Pontecchio (Bologna) le radiocomunicazioni, e fu quando Marconi riuscì a trasmettere a circa 2 km di distanza un segnale radio scavalcando la collina dei Celestini, cioè l'ostacolo che in quel caso si frapponeva fra il trasmettitore e il ricevitore. Il colpo di fucile che un fidato collaboratore di Marconi sparò in aria al funzionare del coherer ricevente è ormai entrato nella storia. L'espediente tecnico al quale Marconi aveva fatto ricorso per riuscire nel suo intento era stato di collegare un oscillatore a scintilla a due lastre metalliche, una soprelevata, l'altra interrata. Si trattava di un primo esempio di antenna, cioè di un sistema adatto a irradiare energia, che nel caso specifico contribuiva, con le sue dimensioni, a diminuire le frequenze generate dal sistema.

Con l'inizio dell'era delle radiocomunicazioni la teoria relativamente semplice, valida per un mezzo omogeneo, isotropo e lineare, ricordata sopra, non era più utilizzabile, perché necessariamente veniva a cadere almeno l'ipotesi di omogeneità del mezzo. Infatti, come si è detto, l'impiego di onde elettromagnetiche per comunicare comportava il superamento di ostacoli, ma anche per collegamenti in visibilità il mezzo interposto, l'aria, non era omogeneo, almeno a causa della turbolenza e della variazione con l'altezza dell'indice di rifrazione (n=√-e-/-ε0). Inoltre nel caso di grande distanza si andava a interessare una zona ionizzata dell'atmosfera, detta ionosfera, di caratteristiche elettriche notevolmente diverse dal resto dell'atmosfera. Si pose allora - e si pone tutt'oggi - un duplice problema e precisamente: 1) dato un complesso trasmittente sostituirlo con opportune correnti impresse e calcolarne l'irradiazione in un mezzo omogeneo, isotropo e lineare (di solito il vuoto); 2) modificare il campo ottenuto in precedenza per tenere conto delle effettive condizioni in cui il collegamento avviene, cioè del mezzo disomogeneo in cui trasmettitore e ricevitore sono immersi. Quando si giunge alla soluzione dei due problemi or ora formulati si conosce il campo che si stabilisce nei punti in cui verrà situata l'antenna ricevente, in assenza della medesima. Da tale campo, come si dirà più ampiamente in seguito nel capitolo sulle antenne, e dal comportamento dell'antenna ricevente quando questa funziona da trasmittente si può dedurre la tensione che si stabilisce per effetto del trasmettitore ai morsetti d'ingresso del ricevitore.

I due problemi appena enunciati possono essere denominati, rispettivamente, il problema dell'irradiazione e il problema della propagazione. Mentre il primo dipende dalla frequenza in modo molto semplice (il fenomeno è descritto dalle stesse funzioni di punto quando frequenza e conducibilità vengono variate in maniera inversamente proporzionale alle dimensioni geometriche del sistema trasmittente, tutto il resto rimanendo invariato), il secondo ne dipende in modo assai complicato, per cui richiede un esame per bande di frequenza. Prima di proseguire si deve sottolineare la forzatura che si compie suddividendo un problema unico (la determinazione del campo elettromagnetico dovuto a determinate correnti impresse in un mezzo non omogeneo e talvolta anisotropo e non lineare) in due problemi (irradiazione e propagazione). Questa forzatura, ovviamente, è accettabile soltanto se i risultati ai quali si perviene sono in accordo con l'esperienza; qui di seguito faremo qualche considerazione che permetta di anticipare, rispetto alla sperimentazione, l'attendibilità dei risultati teorici ottenibili seguendo la procedura indicata in alcuni casi particolari.

Irradiazione. - Rimandando al prossimo capitolo il problema di individuare le correnti impresse che descrivono in modo adeguato un sistema irradiante, si supponga nota la densità di corrente impressa J. Le costanti ε, μ e γ si assumano pari a ε0, μ0 e zero. Per un'oscillazione sinusoidale di pulsazione ω=2πf=2π/T=β/√--μ-o-ε-0, nei punti in cui J=0, si può scrivere

Formula

essendo A (potenziale vettore) una funzione ausiliaria che, nell'ipotesi più semplice di J a fase nulla, è data da

Formula

con P e Q punti dello spazio ed r=∣P−Q∣ distanza fra di essi. In accordo col fatto che le equazioni di Maxwell sono lineari, la soluzione mette in evidenza attraverso l'integrale che al fenomeno è applicabile il ‛principio di sovrapposizione degli effetti'; notevoli informazioni si possono quindi ricavare studiando una delle sorgenti che si ottengono suddividendo il volume nel quale sono localizzate le densità di corrente impressa J in tanti elementi di volume ΔV, sufficientemente piccoli da poter scrivere

Formula

con M=J(Q)ΔV vettore costante. Facendo riferimento a un sistema di coordinate sferiche con origine in Q e asse zenitale parallelo a M ed equiorientato si ricava che H ha diversa da zero la sola componente secondo ϕ (le linee di forza, istante per istante, sono circonferenze aventi il centro sull'asse zenitale e giacenti su piani a questo perpendicolari) data da

Formula

con M componente di M secondo l'asse zenitale.

L'espressione di E è più complicata, dato che essa ha due componenti non nulle, Er ed E0 (linee di forza istantanee giacenti su piani passanti per l'asse zenitale). In particolare si ha

Formula

La potenza attiva P irradiata dalla sorgente è ottenibile mediando in un periodo T il flusso del vettore (detto di Poynting) E⋀H attraverso una superficie sferica S di centro nell'origine e raggio r; si ha cioè

Formula

essendo • il segno di prodotto scalare, ré il versore relativo alla curva coordinata r, perpendicolare alla superficie S e dΩ=sen2 θ dθ dϕ l'angolo solido elementare. Sviluppando i calcoli si ottiene (essendo √-μ-0-/-ε0≃120π):

Formula

Quest'ultima espressione permette varie e notevoli considerazioni. La prima è che, essendo P>0, la sorgente elementare considerata irradia potenza attiva, a spese dell'agente responsabile del movimento delle cariche. La seconda è che, essendo M proporzionale al valore massimo della corrente in entrata Ia del sistema irradiante, è possibile definire una resistenza di radiazione

Formula

che si vede all'entrata del sistema irradiante, quando questo si riduce al solo elemento in considerazione, come avviene ad esempio nel caso di un oscillatore di Hertz. Per inciso, in tale situazione è M=Ial, con l lunghezza dell'oscillatore e quindi si ha

Formula

Si noti che Rrad è indipendente dalla presenza di perdite ohmiche; in effetti essa è dovuta soltanto al fatto che il sistema per irradiare assorbe potenza all'alimentazione, come se vi fosse una perdita ohmica. Un'ulteriore considerazione è che P non dipende da r, cioè rimane la stessa qualunque sia il raggio di S. Ciò è in accordo con il principio di conservazione dell'energia; infatti, se per r1 ed r2r1 si ottenessero due differenti valori P1 e P2 di P, la differenza P2P1 dovrebbe essere assorbita o generata nel volume compreso fra S(r1) ed S(r2), in contrasto con l'ipotesi che ivi il mezzo sia il vuoto e non vi siano correnti impresse. Quanto ora detto, unitamente al fatto che i vari addendi che compaiono nelle espressioni di Eθ e H hanno diversa dipendenza da r, spinge a ricercare funzioni utilizzabili come espressioni approssimate delle intensità del campo.

In prossimità della sorgente, cioè per r≪λ si ha

Formula

A grande distanza dalla sorgente, cioè per r≫λ, si ha invece

Formula

Calcolando P con queste espressioni approssimate, si vede che, mentre quelle valide per r≪λ danno P=0, quelle valide per r≫λ forniscono il valore corretto di P. Le prime, completate con l'espressione approssimata di Er, vengono dette di ‛campo induttivo' e sono utilizzabili per calcolare le intensità del campo, ma non P; le seconde invece, dette di ‛campo radiativo', sono valide per il calcolo sia delle intensità del campo, sia della potenza attiva irradiata P. A una frequenza bassa (ad es. 50Hz), cioè a una lunghezza d'onda grande (nell'esempio: λ=6.000 km), con i valori di Ia raggiungibili in pratica la potenza attiva irradiata è trascurabile e altrettanto può dirsi del campo radiativo, per cui tutti i fenomeni vengono studiati con il solo campo induttivo. Alle radiofrequenze M/Ia diviene invece comparabile con λ, la potenza attiva risulta apprezzabile e il campo radiativo può prevalere rispetto al rumore anche a distanze r assai rilevanti.

Le espressioni del campo a grande distanza suggeriscono infine la considerazione più importante. Da esse si deduce infatti che, a parte la riduzione secondo 1/r, E0 e H acquistano gli stessi valori in coppie di punti per i quali è ωt−βr=cost, ovvero che i valori del campo si propagano con velocità

Formula

nel verso delle r crescenti.

Questa relazione pone in evidenza la natura ondulatoria del fenomeno e permette di quantificare la velocità di propagazione di fase vf dell'onda, che è pari a 3×108 metri al secondo cioè alla velocità della luce. La proprietà può essere estesa a una sorgente qualsiasi, per cui si può affermare che a una distanza sufficientemente grande da un sistema irradiante sinusoidalmente nel vuoto il campo elettromagnetico è un'onda che si propaga verso l'infinito con la velocità della luce.

Si supponga ora, in presenza di una sorgente generica, di rendere conduttiva una piccola regione dello spazio. Se tale regione è configurata in modo opportuno, il campo elettrico dovuto alle J genera in essa correnti di conduzione di densità γE, dove E è il campo elettrico ottenibile come somma di quello Ei (campo incidente), dovuto alle J nel vuoto, e di quello Er (campo riflesso), sostenuto, sempre nel vuoto, da opportune correnti impresse, dette di polarizzazione, di densità Jr=γE. Evidentemente il calcolo di Er si può fare esattamente soltanto quando si conosca già E, ma concettualmente quanto detto è molto importante perché significa che le disomogeneità possono essere eliminate purché si introducano opportune sorgenti. Ci si può allora domandare quale sia l'effetto delle Jr nella regione in cui sono situate le J, ovvero se ivi il campo Er sia importante o meno. Se λ è molto grande (praticamente è significativo il solo campo induttivo, mentre la potenza irradiata è nulla in assenza della disomogeneità) ciò deve essere necessariamente vero. Infatti nella regione conduttiva viene dissipata energia e questa non può essere ‛richiesta' alle J o, meglio, a chi le sostiene, se non attraverso Er. Il caso ora considerato è quello del trasformatore, nel quale il primario non assorbe praticamente potenza a meno che il secondario non ne eroghi a un carico. Si noti che quanto detto significa che col campo induttivo si può trasferire energia attraverso il vuoto (più in generale, un dielettrico); ciò, tuttavia, è di rilievo applicativo soltanto nel caso di distanze piccolissime fra sorgente e utilizzatore.

Se λ è abbastanza piccolo da dare luogo a una potenza irradiata rilevante (campo radiativo significativo a grande distanza dalla sorgente) e la regione conduttiva è così lontana dalla J (Q) che dai suoi punti P la sorgente è vista puntiforme e localizzata in un punto O, fatta l'ipotesi che sia anche r=∣P−O∣≫λ, si può calcolare Ei(P) come campo di una sorgente elementare equivalente situata in O e avente M funzione di θ e ϕ, anziché costante. Analogo discorso può essere fatto per le Jr che vengono sostituite da una sorgente elementare equivalente situata in un punto O1 e con ∣Mr∣ proporzionale a Ei, ovvero a 1/r1=1/∣O−O1∣, attraverso un coefficiente minore di 1. Segue da quanto detto che Er nei punti in cui è J≠0 ha un'intensità 1/r21 volte minore di quella di Ei e quindi che esso può essere trascurato. Ciò significa che la potenza richiesta per alimentare il sistema irradiante è praticamente indipendente dalla presenza o meno della regione conduttiva, ovvero che il campo radiativo è ormai ‛distaccato' dalla sua sorgente quando incontra la regione conduttiva. È questa la tipica situazione dei sistemi di radiocomunicazioni nei quali l'antenna trasmittente (che corrisponde al primario del trasformatore) assorbe una potenza indipendente dal fatto che vi sia o meno in funzione qualche ricevitore (corrispondente al secondario del trasformatore).

Per quel che riguarda l'effetto di Er nei punti in cui J≠0, quanto ora detto vale anche per disomogeneità di ε e/o di μ situate a grande distanza dalle J. Se le disomogeneità del mezzo sono tutte situate a grande distanza e sono modeste, si può dire inoltre che l'onda che incide su di esse, pur risentendo della loro presenza, praticamente non dà luogo a un'onda riflessa, ossia il campo continua a essere espresso da una sola onda progressiva. In questo caso la separazione dell'irradiazione (valida in una regione limitata intorno alla sorgente) dalla propagazione (che interessa tutto lo spazio rimanente) porta a risultati soddisfacenti. Se invece le disomogeneità del mezzo, sempre situate a grande distanza, sono importanti, vi sono vari metodi per calcolare Er, ma essi sono validi solo per geometrie particolarmente semplici.

Rimane infine da considerare il caso in cui disomogeneità importanti sono situate a distanza relativamente piccola dalla sorgente, come avviene sempre per frequenze aventi λ maggiore di 10÷100 m, almeno per la presenza del terreno. In tale situazione non è possibile suddividere il problema del calcolo del campo dovuto a un assegnato sistema irradiante, per cui si deve ricercare una soluzione che tenga direttamente conto delle disomogeneità. Nel caso in cui la disomogeneità sia dovuta alla presenza del terreno, un'utile e accettabile semplificazione può essere quella di considerare la superficie terrestre sferica o addirittura piana e la conducibilità γ costante nei punti del terreno interessati dal campo. Talvolta si può porre addirittura γ=∞ (conduttore elettrico perfetto) e ciò è particolarmente utile se la superficie terrestre può essere considerata piana; in tal caso infatti, per il principio delle immagini, la presenza del piano conduttore può essere sostituita, agli effetti del calcolo del campo, da una sorgente identica a quella in esame (l'immagine appunto) ubicata in posizione simmetrica rispetto al piano conduttore. Poiché una buona conducibilità del terreno migliora le caratteristiche radiative di un'antenna, in pratica si cerca spesso di avvicinarsi quanto più possibile alla condizione γ=∞ con fili o reti metalliche interrati, di notevole estensione (contrappesi).

Propagazione. - Nella tab. I è riportata la suddivisione dello spettro radioelettrico, cioè delle frequenze e delle lunghezze d'onda impiegate nelle radiocomunicazioni, secondo il regolamento internazionale delle radiocomunicazioni (Radio regulations), edito dall'Unione internazionale delle telecomunicazioni (ITU, International Telecommunication Union).

Tabella 1

La ragione del diverso comportamento delle onde elettromagnetiche a seconda delle disomogeneità e al variare della frequenza è da ricercare sia nel fatto che un'onda di tale tipo risente in modo notevole di disomogeneità di dimensioni maggiori di circa un quarto della sua lunghezza d'onda, ma assai blandamente di disomogeneità aventi dimensioni inferiori, sia nel diverso modo in cui le cariche del mezzo reagiscono alle sollecitazioni di campi elettromagnetici di diversa frequenza (nel vuoto, ad esempio, non vi è ovviamente alcun tipo di reazione, mentre questa è importante in una nuvola di elettroni liberi).

Come abbiamo affermato sopra, non è possibile separare irradiazione e propagazione, per frequenze al di sotto di circa 3 MHz, almeno sino a che l'onda non si sia molto allontanata da terra.

Sino a 30 kHz, cioè in banda VLF, è stata recentemente sviluppata un'utile ed elegante teoria che tiene conto della presenza del terreno e della ionosfera. È quest'ultima una regione situata a grande altezza al di sopra della superficie terrestre e ionizzata in modo sensibile alle radioonde dai raggi solari, specialmente quelli ultravioletti. L'effetto sulle radioonde è fondamentalmente dovuto alla presenza di elettroni liberi (molto mobili rispetto agli ioni), dovuta all'effetto di ionizzazione dell'aria.

Per convenzione la ionosfera è considerata suddivisa in strati e precisamente 1) strato D, situato a un'altezza compresa fra 50 e 90 km, presente soltanto durante le ore del giorno (la ricombinazione ioni-elettroni, più intensa dove l'aria è più densa, lo fa scomparire durante la notte quando manca la causa ionizzante) e con densità di ionizzazione dipendente dall'elevazione del Sole. Esso riflette le onde lunghissime e anche quelle lunghe, mentre dà luogo a un assorbimento più o meno intenso delle medie e delle corte; 2) strato E, situato a un'altezza di circa 100÷110 km, con densità di ionizzazione dipendente dall'elevazione del Sole. È importante per la propagazione diurna e notturna delle onde corte sino a circa 1.500 km e per quella notturna delle onde medie per distanze sino a circa 150 km. La presenza di regioni a ionizzazione particolarmente intensa, detta ionizzazione E sporadica, determina fenomeni anomali per cui trasmissioni che normalmente sono effettuabili vengono impedite (le onde non riescono a raggiungere strati più alti), mentre vengono favorite occasionali trasmissioni a lunga distanza di onde VHF; 3) strato F1, situato ad altezze variabili tra 175 e 250 km e presente soltanto durante le ore del giorno con un effetto prevalentemente di assorbimento delle radioonde; 4) strato F2, situato ad altezze di circa 250÷400 km, con una ionizzazione che, oltre a risentire del ciclo delle macchie solari, può variare da giorno a giorno e da stagione a stagione, ma che non dipende dall'elevazione del Sole, dato che per la rarefazione dell'aria è poco probabile la ricombinazione ioni-elettroni (la ionizzazione si mantiene quindi a lungo anche in assenza della sua causa). Lo strato F2, che durante la notte si salda con quello F1, a un'altezza di circa 300 km, è la regione più interessata dalle comunicazioni a lunga distanza in onda corta.

Ritornando a considerare la propagazione delle onde lunghissime, la teoria di cui si è detto tratta l'intercapedine delimitata dalla superficie terrestre e dallo strato D come se fosse una guida d'onda. I risultati sono particolarmente validi per distanze superiori a 3.000 km. Per distanze inferiori a 1.000 km si può dire che, avvicinandosi all'antenna, il campo è dapprima esprimibile come somma di un'onda di terra e di un'onda di cielo (la presenza di due onde è dannosa alle applicazioni perchè determina interferenze) e da un certo punto in poi è costituito dalla sola onda di terra. Quest'ultima è di intensità inversamente proporzionale alla distanza in prossimità del sistema irradiante; a distanze maggiori la legge di variazione si complica a causa delle perdite nel terreno e della curvatura della Terra, ma comunque l'intensità del campo decresce sempre più rapidamente dell'inverso della distanza. Le VLF sono molto importanti per la radionavigazione e per impieghi militari (in particolare permettono di evidenziare esplosioni nucleari), ma le loro applicazioni non verranno qui considerate, essendo di scarso rilievo nel campo delle radiocomunicazioni. Da 30 a 3.000 kHz, cioè onde lunghe e medie, un elemento di corrente verticale su suolo perfettamente conduttore (polarizzazione verticale) dà luogo alla distanza di 1 km a un valore efficace del campo pari a E=300 √-P-r [mV/m], se Pr è la potenza irradiata in chilowatt. Il coefficiente moltiplicativo cambia in funzione del tipo di antenna e della sua altezza sul terreno. Sono disponibili curve per calcolare il rapporto tra la potenza irradiata e la potenza disponibile in ricezione quando si impiegano antenne isotrope, senza perdite, e si tenga conto della sola onda di terra. I valori così ottenuti vanno corretti in dipendenza delle reali antenne utilizzate. Infine la seguente formula empirica:

F0=80,2−10 log D−0,00176 f0,26 D,

nella quale D è la distanza in chilometri e f la frequenza in chilohertz, fornisce il valore mediano annuale F0 in decibel su di 1 μV/m del campo che sarebbe prodotto da un corto dipolo verticale irradiante 1 kW. Nel campo di frequenze in considerazione non si impiegano radiatori rettilinei orizzontali (polarizzazione orizzontale) dato che con essi le perdite nel terreno sono assai elevate.

Da 3 a 30 MHz, cioè per onde corte, la teoria impiegata è quella dell'ottica geometrica. Quest'ultima si basa sull'ipotesi che la soluzione approssimata delle equazioni di Maxwell, valida a grande distanza dalla sorgente e denominata campo radiativo, sia formalmente valida anche in un mezzo che non presenti variazioni troppo rapide delle proprie caratteristiche in corrispondenza di spostamenti pari alla sua lunghezza d'onda, purché le costanti ampiezza e fase siano sostituite da funzioni scalari di punto. In tale ipotesi, in un mezzo senza perdite e di indice di rifrazione n si può scrivere per E (per H valgono considerazioni analoghe)

E(P, t)=E0(P) cos [ωt−β0S(P)],

con E soluzione dell'equazione

∆E+β0 n2 E=0

e β0=2π/λ0, essendo λ0 la lunghezza d'onda corrispondente al vuoto. La validità delle espressioni ora scritte per un assegnato andamento spaziale di n (che si considera costante nel tempo) è condizionata dalla possibilità di determinare E0(P) e S(P) in modo che la prima soddisfi la seconda, detta ‛equazione delle onde'.

Poiché anche in un mezzo omogeneo la validità di tali espressioni è condizionata dal fatto che sia r≫λ e poiché le variazioni delle caratteristiche del mezzo su di una lunghezza d'onda saranno sempre più piccole al diminuire di quest'ultima, si può presumere che l'ipotesi avrà validità sempre maggiore al tendere a 0 di λ0. Supposta verificata tale condizione, introducendo le espressioni di E e di H nelle equazioni di Maxwell si giunge a un'equazione, detta ‛iconale', che si scrive

∣grad S2=n2,

essendo grad l'operatore gradiente ed n=√-ε-/-ε-0 l'indice di rifrazione.

Indicato con S1 il valore di S(P) in un punto P= P1, in un dato istante, con l'equazione

S(P)=S1

si individua la superficie equifase passante per P1 in quell'istante. Definito in ciascun punto di tale superficie un versore sé (vettore di modulo unitario, detto ‛normale d'onda') a essa ortogonale e orientato nel verso delle S crescenti, si può allora scrivere

grad S=nsé,

in accordo con l'equazione iconale, alla quale si ritorna calcolando la norma di grad S, cioè grad S•grad S. Che tale assunzione sia lecita lo si deduce peraltro anche dal fatto che, per definizione, grad S è un vettore perpendicolare alla superficie S=S1, orientato nella direzione di più rapida crescita di S; infatti (v. fig. 1), considerando oltre alla superficie equifase S(P)=S1 anche una seconda superficie equifase S(P)=S1S, con ΔS>0, vicinissima alla prima (e quindi con le coppie di punti di S1 ed S2 situate sulla generica perpendicolare alla S(P)=S1 praticamente equidistanti), si deduce che, per far subire una variazione ΔS alla S(P)=S1 a partire da P1, il cammino più breve (quindi con variazione di S(P) più rapida) è quello secondo la normale a S(P)=S1 passante per P1. A una curva che ha in ogni suo punto una normale d'onda come tangente si dà il nome di raggio. Osservato che un tubo di flusso avente come parete un insieme di raggi convoglia una potenza costante e fatta l'ipotesi che il mezzo sia isotropo, cosicché E non cambi polarizzazione, si può scrivere

Formula

essendo s la coordinata curvilinea lungo un raggio e A(s) l'area della generica sezione trasversale lungo un tubicino di flusso avente la parete laterale costituita da un insieme di raggi e il raggio in questione come suo asse. In analogia con quanto si è fatto per il mezzo omogeneo si può allora calcolare la velocità di fase dell'onda. Dalla

ωt−β0 S(s)=cost

segue

Formula

Da questa formula si deduce che la velocità con cui si propaga un'onda dipende dal punto considerato, essendo più elevata dove ε - e quindi n - è minore e viceversa. Questo risultato è di grande significato perché permette di prevedere il comportamento dei raggi, almeno in regioni con andamento semplice di n. Si consideri a tale riguardo una regione al di sopra della superficie terrestre, nella quale n dipenda solo dalla coordinata radiale r ovvero, se l'origine delle coordinate coincide col centro della Terra, dall'altezza sul suolo. Se si fa l'ipotesi che n decresca linearmente con la quota, i punti dell'onda più elevati sul terreno vanno più veloci, quelli più bassi più lenti; se ne deduce che l'onda tende ad avvicinarsi al terreno e quindi che i raggi, presentando un andamento concavo rispetto alla terra, tendono a ritornarvi. Se n cresce linearmente con l'altezza, sono i punti più bassi dell'onda i più veloci, per cui i raggi hanno andamento convesso rispetto al terreno e tendono ad allontanarsi da esso. Sulla base delle precedenti considerazioni e tenuto presente che l'indice di rifrazione ionosferico è dato da

Formula

essendo N la densità elettronica che negli strati va aumentando con l'altezza (v. fig. 2), si comprende come possa avvenire che un'onda partita da terra verso l'alto con un certo angolo di elevazione, giunta nella ionosfera, incurvi tanto il suo raggio (v. fig. 3) da ritornare verso terra. Naturalmente se avviene invece che l'onda raggiunga la parte alta della ionosfera, in cui N riprende a diminuire con la quota, senza che il raggio punti verso terra, l'onda prosegue nel suo cammino verso l'infinito: essa è riuscita a ‛forare' la ionosfera. È interessante osservare che il verificarsi dell'uno o dell'altro dei casi ora considerati dipende, per assegnate condizioni ionosferiche, dalla frequenza e dall'angolo di elevazione dell'onda. Si intuisce infatti che, se il cammino dell'onda nella ionosfera è lungo (angolo di elevazione basso), il raggio può tornare a puntare verso terra anche se presenta soltanto un moderato incurvamento su di una lunghezza di cammino unitaria; al contrario l'incurvamento deve essere estremamente rapido se il suddetto cammino è breve. Ora, la rapidità di incurvamento del raggio è tanto maggiore quanto più rapidamente cresce la velocità di fase al crescere della quota, per cui, tenuta presente la formula fornita in precedenza per l'indice di rifrazione n e il fatto che la velocità di fase è inversamente proporzionale a n, si può appunto concludere che per assegnate condizioni ionosferiche, cioè per un assegnato andamento di N, il cammino che dev'essere percorso nella ionosfera perché un raggio ritorni a terra è tanto più lungo (angolo di elevazione più basso) quanto più elevata è la frequenza. In formula si può scrivere

MUF=fc cosec α,

essendo MUF (Maximum Usable Frequency) la massima frequenza utilizzabile con un raggio che abbia in partenza un angolo di elevazione α, se fc, frequenza critica, è la frequenza per cui un'onda con raggio verticale riesce a forare la ionosfera. Se la frequenza e l'angolo sono scelti con un certo criterio, si può fare in modo che il raggio tocchi terra in un punto prefissato e, sfruttando eventualmente vari salti (il raggio si riflette nella ionosfera e sul terreno varie volte), è possibile stabilire collegamenti su distanze lunghissime. È da tener presente a tale riguardo che le perdite nello strato D della ionosfera hanno un andamento tale che conviene avvicinarsi alla MUF quanto più è possibile e far sì che essa sia, a sua volta, la più elevata possibile; di conseguenza conviene usare gli angoli di elevazione più bassi e quindi fare il minor numero di salti possibile. Da quanto ora detto si deduce anche che le onde corte non sono impiegabili come onda di cielo per distanze molto brevi, dato che queste, richiedendo valori di α grandi, comportano MUF basse e quindi perdite elevate, specialmente durante il giorno. La presenza di più strati e la possibilità di giungere allo stesso punto della Terra girandole attorno attraverso la via più corta e quella più lunga (quest'ultimo effetto viene tuttavia contenuto impiegando antenne direttive) fa sì che l'energia possa arrivare al terminale ricevente avendo fatto più di un cammino, ovvero si è in presenza di un collegamento che presenta cammini multipli. Questo sarebbe un grave difetto anche con onde puramente sinusoidali, perché le composizioni delle varie onde, dipendendo dalle fasi relative che non possono essere rigorosamente costanti per la natura casuale del meccanismo responsabile dei cammini multipli, farebbero variare l'ampiezza e la fase dell'onda in ricezione in modo aleatorio; tuttavia esso è molto più grave quando vengono trasmesse più frequenze contemporaneamente, come avviene in qualsiasi sistema di comunicazioni (una sinusoide pura non contiene informazione oltre a quella che vi è qualcuno che sta trasmettendo da un dato punto): in tal caso infatti la riproduzione fedele del segnale di partenza richiederebbe che tutte le frequenze venissero attenuate nello stesso modo (se, ad esempio, un'ampiezza si dimezza, altrettanto deve avvenire per le altre) e avessero la stessa velocità di fase (se in partenza il massimo di una sinusoide coincide con un valore, ad esempio un minimo, di un'altra, altrettanto deve avvenire in ricezione), ma queste condizioni sono ben lontane dall'essere verificate nel caso di cammini multipli, dato che gli effetti di questi ultimi sulle ampiezze e sulle fasi sono fortemente dipendenti dalla frequenza, per cui, quando si hanno cammini multipli, le bande trasmissibili sono molto strette, dell'ordine del chilohertz.

Altri fenomeni influenzano negativamente la propagazione delle onde corte e in gran parte costituiscono i temi della futura ricerca in tale campo. L'interesse applicativo di tali studi è notevole, perché per utilizzare al massimo lo spettro radioelettrico occorre conoscere molto bene i parametri caratteristici del mezzo trasmissivo, dato che essi sono in molti casi, se non in tutti, i più restrittivi agli effetti della possibilità di effettuare un collegamento.

L'argomento più interessante da studiare è quello delle modificazioni del mezzo a causa delle alte potenze raggiungibili oggi dai trasmettitori (dell'ordine del megawatt) e della capacità d'irraggiamento dei sistemi di antenna (il campo raggiunge intensità che corrispondono a potenze trasmesse cento volte superiori a quelle effettivamente irradiate). Ciò ha reso importante un fenomeno, a lungo considerato poco più di una curiosità scientifica, denominato ‛effetto Lussemburgo'. In esso, a causa di una non linearità della ionosfera, si verifica una intermodulazione fra onde che variano sinusoidalmente nel tempo, con ampiezza non costante, cioè modulate in ampiezza; in base a questa intermodulazione parte del contenuto di informazione di un'onda si trasferisce sull'altra, in modo intelligibile o non intelligibile. Il fenomeno è conseguenza del fatto che al passaggio di una radioonda negli strati D ed E della ionosfera gli elettroni vengono energizzati più o meno a seconda dell'intensità dell'onda stessa, con conseguente variazione della loro frequenza di collisione; per tale motivo qualsiasi altra radioonda che passi per le regioni interessate dalla precedente subisce la suddetta variazione di attenuazione e quindi viene modulata in ampiezza. La costante di tempo è tale che la variazione della frequenza di collisione e quindi dell'attenuazione può seguire frequenze di modulazione sino a 500 Hz. Le esperienze sull'effetto Lussemburgo sono ostacolate dalla difficoltà di distinguere questo effetto dalle interferenze cocanale (cioè dovute ad altre trasmissioni nella stessa banda di frequenze) in un ambiente estremamente affollato di trasmissioni qual è quello delle frequenze al di sotto dei 30 MHz. Esse tuttavia hanno permesso di verificare un aumento lineare dell'intermodulazione sino a un certo valore di potenza trasmessa e aumenti più rapidi al di sopra di esso. Questo effetto si esalta se ci si avvicina alla frequenza giromagnetica di 1,4 MHz, legata alla presenza del campo magnetico terrestre. Altre esperienze, mediante le quali si è provocato un riscaldamento artificiale del plasma, hanno mostrato la creazione di onde nel plasma stesso, che provocano notevoli aumenti della profondità e della frequenza delle evanescenze (o fading), cioè delle variazioni del livello di segnale ricevuto. Da esse è anche risultato che le irregolarità, messe in fase dal campo, generano ampie superfici riflettenti (~105÷109 m2) ad altezze di 250÷300 km. Questi effetti si verificano con frequenze inferiori alla frequenza critica dello strato F(~12 MHz). Una forte diffusione può pure essere provocata nello strato E, a circa 110 km di altezza, quando si opera a frequenze inferiori alla frequenza critica dello strato (~3 MHz). Ogni volta che si manifestano le suddette perturbazioni se ne possono trarre sia benefici effetti, sia aumento delle interferenze. Appare quindi interessante determinare, a differenti latitudini geomagnetiche, in quali condizioni si manifestino indesiderate modificazioni della ionosfera; come queste varino con la posizione geomagnetica e geografica del trasmettitore e con la potenza da esso irradiata a vari angoli di elevazione; quali conseguenze, favorevoli o sfavorevoli, subiscano radioonde che penetrino nelle regioni modificate. Sono interrogativi a cui si deve ancora dare risposta.

Al di sopra di 30 MHz, cioè per onde VHF, UHF, SHF e millimetriche, la propagazione può essere studiata nella maggior parte dei casi secondo i criteri dell'ottica geometrica. Fra le eccezioni sono da considerare i casi in cui si sfrutta il fenomeno della diffusione (scattering) di un'onda da parte del mezzo, nel quale le disomogeneità interessate sono distribuite su volumi molto ampi. Per frequenze da 30 a 60 MHz e su distanze da circa 1.000 a 2.000 km si può utilizzare la propagazione per scattering ionosferico, che si ritiene sia prevalentemente imputabile alla parte più bassa dello strato D. La banda può raggiungere 10 kHz con valori mediani dell'attenuazione superiori a quelli dello spazio libero per molte decine di decibel. Sempre nella ionosfera (strato E inferiore) avviene una diffusione a causa di colonne ionizzate provocate da meteoriti, per la quale vengono utilizzate frequenze da 50 a 80 MHz; questo fenomeno non riveste grande importanza, mentre molto più significativo è lo scattering troposferico, il quale si manifesta per tutte le frequenze attualmente in considerazione. Un importante parametro in tale tipo di propagazione è l'angolo di scattering, che tiene conto della localizzazione della regione in cui verrebbero a sovrapporsi i campi elettromagnetici dell'antenna trasmittente e di quella ricevente, se anche quest'ultima, anziché essere collegata al ricevitore, venisse eccitata da un trasmettitore. Il valore mediano dell'attenuazione L può essere calcolato con la formula

L=30 log f+20 log d+Fd),

essendo θ l'angolo di scattering, d la distanza fra l'antenna trasmittente e quella ricevente misurata lungo la superficie terrestre e Fd) una funzione i cui valori variano circa da 100 a 300 dB per θd che varia da 0,1 a 400 km.

La propagazione per scattering troposferico presenta evanescenze di tipo lento e di tipo veloce. Le variazioni di livello lente si manifestano con periodi di ore o di giorni, contemporaneamente, nei punti della regione in cui si può ricevere e sono imputabili a variazioni dell'indice di rifrazione dell'atmosfera lungo il cammino dell'onda. Le evanescenze veloci sono invece imputabili a cammini multipli, seguono una distribuzione di Rayleigh e si presentano assai diversamente nei diversi punti nei quali può essere collocata un'antenna ricevente. Quest'ultima proprietà viene talvolta sfruttata facendo ricorso a un sistema ricevente a diversità spaziale, cioè con due antenne riceventi collocate a una certa distanza (ad esempio 60 lunghezze d'onda), cosicché, quando su di una incide un campo troppo basso per l'evanescenza, l'altra continua a funzionare adeguatamente. Un'ulteriore proprietà dello scattering deriva infine dal fatto che la regione dell'atmosfera in cui esso si verifica dev'essere molto ampia, perché l'effetto sia rilevante; per questo motivo non si può fare ricorso ad antenne di guadagno troppo elevato, perché tali antenne, irradiando in angoli solidi molto piccoli, finiscono col dare un segnale in arrivo minore anziché maggiore, contrariamente a quanto avverrebbe se anziché di scattering si trattasse di riflessione.

Passando ora a considerare i casi in cui è applicabile l'ottica geometrica, si può dire che le lunghezze d'onda, relativamente piccole per le frequenze in gioco, fanno sì che le regioni del campo interessate siano, trasversalmente al raggio, di ridotte dimensioni, per cui si può appunto ragionare in termini di un solo raggio; tuttavia esse non sono così ridotte da autorizzare a dire che una comunicazione non è interrotta se un ostacolo viene sfiorato dal raggio stesso. Dalla teoria della diffrazione di Fresnel-Kirchhoff si deduce infatti che l'ostacolo può essere trascurato soltanto se il raggio lo sorpassa a un'altezza tale che la differenza fra le somme delle distanze del trasmettitore e del ricevitore dalla sommità dell'ostacolo e la distanza fra trasmettitore e ricevitore sia maggiore di λ/2 (tutte le distanze vanno misurate lungo i raggi). Si dice in tal caso che è libero il primo ‛ellissoide di Fresnel'. Supposta verificata tale condizione, non è tuttavia generalmente trascurabile la presenza della Terra, specialmente se si ha a che fare col mare o con vaste estensioni piatte, prive di alta vegetazione e con terreno umido. Di essa si tiene conto mediante uno o più raggi riflessi che si sommano con il raggio diretto in ricezione dando luogo a interferenze che possono anche essere molto importanti (se la riflessione fosse perfetta, se cioè l'onda dopo la riflessione avesse la stessa ampiezza che aveva prima, una differenza di cammino multipla di λ/2 fra raggio diretto e raggio riflesso darebbe luogo a un annullamento dell'intensità di campo ricevuta, mentre una differenza multipla di λ determinerebbe un'intensità di ampiezza doppia). La presenza dei raggi riflessi, anche se sempre meno probabile all'aumentare della frequenza, diviene tuttavia importante a frequenze elevate, poiché la riflessione può avvenire anche su superfici non molto estese, come ad esempio quelle di edifici o alberi. Per quanto riguarda l'effetto della variazione dell'indice di rifrazione della troposfera sull'andamento dei raggi, si può dire che esso normalmente decresce linearmente con l'altezza e quindi, così come si è detto a proposito della ionosfera, i raggi si incurvano verso terra. Ciò produce effetti analoghi a quelli che si avrebbero se la Terra avesse un raggio R′ maggiore di quello effettivo R e i raggi rimanessero rettilinei. R′ è denominato ‛raggio equivalente della Terra' e, con atmosfera standard, è pari a 1,33 volte il vero raggio terrestre R. Tuttavia R′/R può variare da 0,6 a 5. In alcuni casi può quindi avvenire che il raggio equivalente sia uguale a quello reale e tutto vada come se la Terra fosse piatta. In alcune situazioni, con forte diminuzione dell'indice di rifrazione con la quota, il raggio si riflette in modo cospicuo quando giunge sul terreno e può rimanere imprigionato in un ‛condotto', così da raggiungere, con vari salti, distanze notevoli. In altre condizioni atmosferiche l'indice di rifrazione aumenta con la quota e in tal caso i raggi si incurvano verso l'alto. Un andamento di questo tipo, seguito da uno normale, cioè decrescente con la quota, può determinare un condotto sopraelevato nel quale la riflessione sul terreno è sostituita dalla rifrazione nella parte bassa della troposfera. La propagazione in visibilità delle UHF e SHF è affetta da evanescenze dovute sia a cammini multipli, sia a incurvamenti del raggio imputabili ad anomale variazioni con la quota dell'indice di rifrazione. Le evanescenze dovute a cammini multipli possono essere suddivise in due categorie, quelle dovute a cammini multipli atmosferici e quelle che sono invece conseguenza di cammini multipli per riflessioni. In generale le evanescenze per cammini multipli atmosferici si presentano con una frequenza che aumenta all'aumentare della lunghezza del collegamento, mentre la loro ampiezza di modulazione tende a diminuire con l'aumentare della lunghezza stessa. Tali evanescenze seguono inoltre una distribuzione che ha un massimo teorico fornito dalla distribuzione di Rayleigh, cui gli andamenti effettivi si avvicinano al crescere della frequenza. Con essa è possibile calcolare la percentuale di tempo in cui il valore del campo si mantiene al di sotto di valori assegnati; ad esempio, per un collegamento di circa 50 km, che è un valore assai vicino alla maggior parte delle reali lunghezze dei collegamenti in ponte radio, soltanto per lo 0,01% del tempo il segnale scende di oltre 40 dB (1/104 volte) sotto il valore mediano. Le evanescenze dovute a cammini multipli sono fortemente dipendenti dalla frequenza e ciò suggerisce, oltre a un'eventuale diversità spaziale, anche una diversità di frequenza; nei moderni ponti radio tale diversità è effettuata con scambio automatico dei canali radio. La diversità di frequenza porta tuttavia a una cattiva utilizzazione dello spettro radioelettrico, al contrario della diversità spaziale.

Numerosi fenomeni relativi alla propagazione di radioonde al di sopra dei 30 MHz non sono ancora così conosciuti da permettere una sicura progettazione di alcuni tipi di sistemi e una più intensa utilizzazione dello spettro radioelettrico. In particolare si tratta della scintillazione provocata dalla ionosfera, degli effetti della meteorologia troposferica sulle radiocomunicazioni, della propagazione in aree urbane e su terreno irregolare.

La scintillazione ionosferica è un fenomeno analogo allo scintillio che si vede quando si guarda una sorgente di luce attraverso un vetro irregolarmente corrugato e in movimento. Le irregolarità del mezzo nel caso della ionosfera sono irregolarità della densità elettronica nello strato F (e forse ancora più in alto), localizzate in regioni tubiformi, lungo le linee di forza del campo magnetico terrestre; il loro movimento per i satelliti fissi o geostazionari è dovuto a movimenti generali dell'atmosfera o a campi elettromagnetici nella ionosfera, mentre per i satelliti mobili entra in gioco anche il movimento dei satelliti stessi rispetto alla Terra e alla ionosfera. La scintillazione ionosferica è stata per lungo tempo studiata dai radioastronomi nel campo delle VHF. La legge di variazione con la frequenza da essi scoperta, all'incirca proporzionale a 1/f2, aveva portato a ritenere che il fenomeno fosse trascurabile a frequenze dell'ordine del gigahertz o superiori, ma oggi si ha conoscenza di fluttuazioni del segnale sino a 20 dB (1 a 100) nella banda dei 3 GHz e di evanescenze importanti anche a 6 GHz, specialmente nella regione geomagnetica equatoriale. Quello che resta ancora da fare è quindi ampliare le conoscenze sugli effetti della scintillazione sull'ampiezza, sulla fase, sulla polarizzazione e sull'angolo di arrivo delle radioonde, almeno sino a 10 GHz.

Lo spettro radioelettrico è piuttosto limitato e già ci si sta avvicinando alla sua saturazione in alcune regioni della Terra. Il modo più immediato per aumentarne la capacità trasmissiva è di utilizzare frequenze sempre più elevate, al di sopra dei 10 GHz. Per tale motivo sono di grande importanza per il futuro gli studi relativi agli effetti dei fenomeni meteorologici troposferici sulla propagazione di radioonde impiegate in trasmissioni terrestri o effettuate mediante satelliti. Attenuazione, depolarizzazione, diffusione, dispersione e ancora scintillazione si presentano infatti in un'onda radioelettrica con frequenza al di sopra dei 10 GHz che attraversi la troposfera, a causa della presenza - e della turbolenza dei gas e dei vapori che compongono quest'ultima, nonché di eventuali idrometeore (nubi, nebbia, pioggia, grandine, neve). L'attenuazione nelle bande centimetriche e millimetriche è principalmente dovuta all'assorbimento da parte del vapore acqueo e dell'ossigeno. La molecola del primo ha un momento di dipolo elettrico che, interagendo con il campo elettrico di un'onda, determina due righe con forte assorbimento a 22,2 e a 183,3 GHz. La molecola di ossigeno ha invece un momento magnetico che interagisce con il campo magnetico incidente. Essa dà luogo a forti assorbimenti intorno ai 60 GHz e a una riga di assorbimento isolata a 118,8 GHz. Quando ci si allontana da queste frequenze l'attenuazione è in gran parte dovuta all'umidità, come è mostrato nella fig. 4, in cui sono riportati gli andamenti dell'attenuazione subita da un'onda che attraversa un'atmosfera stratificata (n decrescente con l'altezza) seguendo un cammino verticale, quando l'umidità relativa è dello 0 o del 100% (curve tratteggiate) e quando l'atmosfera è moderatamente umida (curva continua). La curva tratteggiata corrispondente all'umidità dello 0%, che fornisce praticamente l'attenuazione dovuta all'ossigeno, continua a decrescere con l'aumentare della frequenza, mentre quella corrispondente all'umidità del 100% continua a crescere, con un altro picco oltre i 300 GHz.

Gli assorbimenti imputabili al vapore acqueo e all'ossigeno variano nel tempo in dipendenza dei valori di temperatura dell'atmosfera e, per quanto riguarda l'ossigeno, anche della pressione.

Passando a considerare gli effetti dei fenomeni meteorologici sulle radiocomunicazioni, si deve innanzi tutto fare presente che la pioggia può provocare effetti di attenuazione superiori a quelli dovuti all'ossigeno e al vapore acqueo. Questi effetti sono determinati sia dall'assorbimento, sia dalla diffusione dell'onda da parte delle gocce. A parità di tasso di precipitazione, cioè di millimetri di pioggia nell'unità di tempo, l'attenuazione dipende anche dal tipo di gocce (più o meno grosse) e dal loro modo di cadere (con distribuzione spaziale uniforme o a grappoli). Ciò rende difficile estendere le misure da una regione della Terra a un'altra. Inoltre è necessario che i pluviometri siano in grado di misurare il tasso di precipitazione mediando su di un periodo di tempo molto breve rispetto all'ora e ciò rende poco utilizzabili le statistiche sulle precipitazioni già disponibili. Per quel che riguarda i valori dell'incremento di attenuazione dovuto alla pioggia, a titolo indicativo si può dire che quando il tasso di precipitazione varia da 1 a 150 mm/h l'attenuazione può variare da 0,01 dB/km a 5 dB/km a 10 GHz; nelle stesse condizioni si passa invece da 0,6 a 18 dB/km a 20 GHz e da 0,16 a 28 dB/km a 30 GHz. È comunque sempre più dannosa una precipitazione di tipo temporalesco piuttosto che una pioggia minuta, provocata da nuvole stratiformi che coprano un'ampia area. Nel caso di collegamenti Terra-satelliti occorre conoscere la distribuzione spaziale della pioggia e tenere conto dell'angolo di elevazione del raggio dell'onda, dato che a seconda di esso è diverso l'impatto delle gocce con l'onda (se questa sale verticalmente le gocce incidono con traiettorie perpendicolari su una superficie equifase, mentre esse cadono praticamente parallele a tale superficie se l'onda ha raggio con elevazione molto bassa). La pioggia produce poi una depolarizzazione del campo per il fatto che una goccia, per la sua forma oblunga, reirradia diversamente a seconda che la polarizzazione del campo sia verticale o orizzontale. Si ritiene che questo effetto sia meno sensibile su punti d'onda orizzontali con polarizzazione circolare. Assai scarse sono le conoscenze sull'andamento della depolarizzazione con la frequenza. Appare tuttavia probabile che l'effetto sia crescente a partire da 1 GHz sino a circa 60 GHz. Per frequenze superiori esso potrebbe decrescere, dato che a queste frequenze le gocce che si fanno maggiormente sentire sono quelle più piccole, che hanno forma più vicina alla sferica. Neve secca e grandine hanno limitato peso sulla propagazione sino a 300 GHz, ma la neve potrebbe avere importanza nella parte superiore dello spettro radioelettrico. Nuvole e nebbia consistono di minuscole gocce o particelle di ghiaccio, che sono di dimensioni minori, rispettivamente, a 50 μm e 10 μm. Esse hanno pertanto rilevanza nei confronti delle onde centimetriche e millimetriche. Pur non essendovi ancora misure in quantità significativa, si ritiene che per la banda di frequenze suddette vi possa essere una variazione di attenuazione da qualche decimo a circa 10 dB/km.

L'ultimo campo che richiede di essere investigato a fondo per poter sfruttare appieno lo spettro radioelettrico è quello della propagazione nelle aree urbane e su terreno irregolare. La presenza di edifici o di irregolarità del terreno dà infatti luogo a cammini multipli quando si opera nella banda di frequenze compresa dalle VHF sino alle millimetriche, con conseguenti evanescenze del segnale che possono essere anche molto profonde. Il meccanismo dei cammini multipli è ben conosciuto, ma non si è ancora in grado di esprimere in formule, utili per progettare collegamenti radio, le caratteristiche topografiche ambientali.

3. Antenne.

Un'antenna è un sistema materiale, particolarmente adatto a irradiare energia, che comprende un tratto di linea di trasmissione collegato al sistema vero e proprio di irraggiamento. La linea di trasmissione può essere una bifilare, un coassiale, una guida d'onda; in ogni caso una sua sezione trasversale viene definita ‛porta' (d'accesso) dell'antenna. La posizione della porta di un'antenna non è univocamente definita, dato che si richiede soltanto che in corrispondenza con essa l'onda sia già guidata dalla linea di trasmissione (ciò significa che l'andamento del campo nella porta è già quello che si ritrova nelle altre sezioni trasversali della linea), ma conviene che sia la più vicina possibile all'antenna; in pratica la porta si identifica con una coppia di morsetti se la linea è una bifilare, con un connettore se è un coassiale, con una flangia se è una guida d'onda.

Un'antenna irradia energia quando viene collegata a un trasmettitore, mentre è in grado di trasferire energia a un ricevitore quando viene investita da un campo elettromagnetico. Ciò significa che non vi è differenza fra un'antenna trasmittente e una ricevente, se non per le funzioni che svolgono. In un sistema di radiocomunicazioni vi sono sempre almeno due antenne (una trasmittente e una o più riceventi), situate a distanze così grandi (si veda il capitolo precedente) che ciascuna di esse si comporterebbe come se fosse sola qualora venisse fatta funzionare da trasmittente. Dato che le antenne sono lineari e passive, il rapporto fra i numeri complessi che rappresentano la tensione e la corrente che si stabilisce alla porta di un'antenna quando essa - ed essa soltanto - viene alimentata da un generatore sinusoidale, è un numero complesso Za, denominato ‛impedenza d'antenna'.

La parte reale di Za è sempre positiva e tiene conto sia delle perdite ohmiche, sia della potenza irradiata. Indicata con Z0 l'impedenza caratteristica della linea (cioè l'impedenza di carico della linea in grado di assorbire tutta l'energia di un'onda propagantesi sulla linea in direzione dell'impedenza stessa), si definisce ‛coefficiente di riflessione dell'antenna' il numero complesso

Formula

(Si noti che Z0 sarà reale, Z0=R0, nel caso di linee con piccole perdite, come si possono supporre tutte quelle impiegate nei sistemi di radiocomunicazioni).

Il modulo di ρ è indipendente dalla sezione di linea considerata se la linea è senza perdite o se si considera un breve (rispetto a λ) tratto di una linea a piccole perdite. Indicata con Pd la potenza di un'onda progressiva che investa la porta dell'antenna, la potenza che si trasferisce a quest'ultima è

Pa=Pd(1−∣ρ∣2).

Se Pd è potenza che si vuole irradiare, occorre che sia ∣ρ∣=0. In pratica ciò può essere soltanto approssimato e, fissato un valore massimo tollerabile ∣ρ∣max (dipendente dal particolare sistema di radiocomunicazioni considerato), si definisce larghezza di banda dell'antenna l'intervallo di frequenza entro il quale ∣ρ∣ è minore di ∣ρ∣max.

Le definizioni sopra introdotte sono univoche per un'antenna in uno spazio omogeneo. Se l'antenna è in presenza di disomogeneità, queste possono farsi risentire più o meno sull'impedenza d'antenna ma, in accordo con quanto già affermato in precedenza, si può dire che l'impedenza di un'antenna impiegata in un qualsiasi collegamento radioelettrico non risente mai della presenza delle altre antenne del collegamento stesso.

Si consideri ora un'antenna isolata in uno spazio omogeneo (per fissare le idee, il vuoto), eccitata da un generatore sinusoidale. Come si è detto nel capitolo precedente, il campo elettromagnetico dovuto a questo sistema può essere calcolato sostituendo, al posto del sistema generatore più antenna, l'insieme delle correnti impresse.

Si è già accennato a tale proposito alla possibilità di far ricorso a densità di corrente di polarizzazione J=γE per sostituire una corrente di conduzione; analogamente si può ricorrere a correnti di polarizzazione, elettriche o magnetiche, di densità (ε−ε0)ῼE/ῼt+(μ−μ0)ῼH/ῼt per sostituire correnti di spostamento. Ciò porta alla difficoltà di introdurre nelle equazioni di Maxwell termini noti (uno dei quali addirittura magnetico) che in realtà noti non sono, ma se si è in grado di approssimare bene le correnti di polarizzazione i risultati sono del tutto soddisfacenti. Un'altra procedura per introdurre correnti impresse al posto di un sistema materiale irradiante utilizza un teorema, detto di equivalenza, in base al quale il campo al di fuori di una superficie chiusa S, racchiudente l'antenna e il generatore, può essere calcolato, come se dappertutto vi fosse il vuoto, in funzione di correnti superficiali elettriche e magnetiche rispettivamente di densità Js=n⋀H ed Ms=E⋀n, essendo E e H le intensità del campo elettromagnetico (al solito incognito) che si determina nei punti di S ed n il versore ortogonale a S orientato verso l'esterno. Non è possibile qui entrare in maggiori dettagli, ma si può dire che le correnti di polarizzazione sono utili per le antenne filiformi (rettilinee o no) e quelle equivalenti per le antenne ad apertura (paraboloidi, trombe, lenti elettromagnetiche).

Per quanto detto nel capitolo precedente, a grande distanza l'antenna può supporsi localizzata in un punto O, origine di un sistema di coordinate sferiche r, θ, ϕ. Per la densità di potenza nel punto in considerazione può scriversi

Formula

avendo indicato con E2 la somma dei quadrati dei valori massimi che vengono in un periodo raggiunti dalle due componenti Eθ ed Er di E. A partire da questa espressione approssimata di p si definiscono varie grandezze caratteristiche della radiazione dell'antenna. L'intensità di radiazione in un punto (ò, θ-, ϕ-),

Ir(θ-, ϕ-)=p(ò, θ-, ϕ-)r2,

è una funzione indipendente da r, che permette di esprimere la potenza attiva irradiata nel seguente modo:

Formula

L'equazione

Formula

nella quale compare la funzione di radiazione definita rispetto a una direzione arbitraria θ-, ϕ- (di solito quella di massimo di Ir), individua una superficie, detta di radiazione, ogni punto della quale dista dall'origine di un ammontare pari a f; essa visualizza il modo di irradiare dell'antenna. L'intersezione della superficie di radiazione con un piano passante per l'origine è una curva che viene detta diagramma di radiazione. Ovviamente esistono infiniti diagrammi di radiazione, ma ne bastano alcuni (due e talvolta anche uno soltanto) per dare sufficienti informazioni sul modo di irradiare di un'antenna. Se il diagramma di radiazione è una circonferenza per tutti i piani passanti per l'origine, l'antenna si dice ‛isotropa' (un'antenna siffatta non esiste nel campo dei radiatori coerenti, ma è utile considerarla come riferimento). Se il diagramma di radiazione è una circonferenza soltanto per un piano passante per l'origine, l'antenna si dice ‛omnidirezionale'. Se la superficie di radiazione è simile a quella di una matita, cioè ha simmetria assiale e il diagramma di radiazione è praticamente confinato entro un angolo molto piccolo, l'antenna viene detta pencilbeam. Se la superficie di radiazione è simile a quella di un ventaglio, cioè ha un diagramma di radiazione compreso entro un angolo molto ampio e uno (nel piano ortogonale a quello di giacitura del precedente) compreso entro un angolo molto piccolo, l'antenna viene detta fan-beam. Le ultime due antenne appartengono alla famiglia delle antenne direttive che, un po' genericamente, comprende tutte le antenne in grado di dare intensità di radiazione molto forti in alcune direzioni privilegiate, a scapito delle rimanenti. In un diagramma di radiazione si riconoscono direzioni di zero, cioè direzioni nelle quali l'intensità di radiazione è nulla o molto più piccola di quella massima. La parte del diagramma di radiazione che comprende il valore massimo assoluto della distanza dall'origine ed è compresa fra due direzioni di zero viene detta ‛lobo principale' del diagramma; le rimanenti, comprese fra le altre direzioni di zero, ‛lobi secondari'. L'angolo compreso fra le due direzioni di zero più vicine al lobo principale viene detto ‛apertura del lobo principale'; è molto usata anche l'apertura del lobo principale a metà potenza, definita come l'angolo compreso fra le due direzioni del lobo principale nelle quali l'intensità di radiazione è 0,707 volte quella massima. Infine dal diagramma di radiazione si possono ricavare il rapporto fra i lobi (rapporto fra il massimo del lobo principale e il massimo del più grande fra i lobi secondari) e il rapporto avantiindietro (rapporto fra il massimo del lobo principale - direzione 0 - e il valore corrispondente a 180°). In accordo con quanto si è già detto, il valore di tutte le grandezze ora considerate dev'essere individuato tante volte quanti sono i diagrammi di radiazione necessari per caratterizzare il comportamento radiativo di un'antenna. Per semplificare le cose si usa moltissimo in alternativa una grandezza di tipo integrale, denominata ‛guadagno in direttività', costituita dal rapporto fra le potenze che debbono essere fornite all'antenna in esame e a un'antenna di riferimento per avere in una data direzione la stessa intensità di radiazione (il che significa anche lo stesso campo in un qualsiasi punto della semiretta individuata da quella direzione). L'antenna di riferimento era nel passato un dipolo in mezz'onda, ma oggi è universalmente accettato l'uso dell'antenna isotropa; peraltro, come si è già detto, un radiatore isotropo non esiste e quindi il guadagno può essere soltanto calcolato con la formula

Formula

In pratica, il calcolo di d richiede la misura di f in un numero sufficiente di piani, così da poter approssimare l'integrale con una sommatoria. Un'antenna è tanto più direttiva quanto più elevato è il suo guadagno in direttività. Si introduce poi anche il guadagno in potenza che è legato a quello in direttività dalla formula

gd,

essendo

Formula

il rendimento di radiazione dell'antenna. Spesso, quando il rendimento è elevato (superiore al 90%), si parla soltanto di guadagno dell'antenna, considerando dg. Il guadagno può essere definito rispetto a una direzione generica calcolando f non rispetto alla direzione di massimo, bensì rispetto all'intensità di radiazione relativa alla direzione considerata. Quanto detto sinora riguarda un'antenna funzionante da trasmittente; passando a considerare un'antenna che svolga funzioni riceventi è di grande utilità l'area efficace data da

Formula

Si noti che l'area efficace è calcolabile a partire dalla direttività dell'antenna e quindi dal suo funzionamento come antenna trasmittente. Supponendo che l'antenna sia adattata al ricevitore (massimo trasferimento di potenza fra i due, con perdite in linea trascurabili), la potenza che viene trasferita dall'antenna ricevente investita da un'onda piana uniforme (o meglio, da un campo approssimabile con una tale onda nei punti in cui è stata situata l'antenna), con densità di potenza p e proveniente da una direzione assegnata, è data da

Pric=p Aeff,

essendo Aeff l'area efficace dell'antenna ricevente relativa alla direzione di provenienza dell'onda e supponendo che quest'ultima abbia polarizzazione parallela a quella dell'antenna. Quanto ora detto è estremamente importante perché mostra come il comportamento di un'antenna in ricezione sia completamente individuato dal suo comportamento in trasmissione: un'antenna non riceve da una direzione di zero, mentre riceve il massimo da una direzione di massimo (ciò significa che le antenne trasmittente e ricevente di un collegamento di solito puntano una verso l'altra il proprio lobo principale). Si può osservare che nel legame fra Aeff e d compare la lunghezza d'onda, per cui se in un'antenna Aeff è costante, d varia in maniera inversamente proporzionale al quadrato della lunghezza d'onda (cioè proporzionalmente al quadrato della frequenza) e viceversa. Nelle antenne risonanti il guadagno è una costante, non per la stessa antenna, ma per antenne dello stesso tipo (due dipoli in mezz'onda, ad esempio, hanno lo stesso guadagno a due frequenze diverse; per fissare le idee, due dipoli, l'uno di lunghezza doppia dell'altro, hanno lo stesso guadagno a frequenze l'una la metà dell'altra); al contrario, nelle antenne ad apertura (paraboloidi, trombe, lenti elettromagnetiche) l'area efficace è una costante per la stessa antenna in una banda estremamente ampia. La definizione data in precedenza di larghezza di banda di un'antenna, basata sul comportamento dell'impedenza d'ingresso, non è valida se d o Aeff non sono praticamente costanti in tale banda. Esprimendo p in funzione dell'antenna trasmittente e ponendo un pedice T o R per distinguere fra le grandezze corrispondenti rispettivamente al trasmettitore o al ricevitore, si può scrivere (formula di trasmissione)

Formula

dove si indica con l la distanza fra le antenne trasmittente e ricevente. Al prodotto PTgT si dà il nome di ‛potenza effettiva irradiata', ERP (Effective Radiated Power, talvolta EIRP, Effective Isotropic Radiated Power); esso caratterizza la parte trasmittente del collegamento e mostra come lo stesso effetto si ottenga aumentando la potenza del trasmettitore oppure il guadagno dell'antenna (quando occorre aumentare l'ERP si adotterà il provvedimento economicamente più conveniente, ricordando che, se è vero che in un'antenna ad apertura g può essere aumentato aumentando f, è anche vero che altre grandezze dipendono da f nella formula di trasmissione e che, come si vedrà in seguito, altrettanto può dirsi per il rumore). Al rapporto (4πl/λ)2 solitamente espresso in dB, si dà il nome di ‛attenuazione nello spazio libero fra antenne isotrope' (gT=gR=1).

In conclusione, nella più semplice delle schematizzazioni un collegamento radio si presenta come nella fig. 5, nella quale T è il generatore dei segnali elettrici che si trasferiscono al ricevitore R. I due blocchi T ed R comprendono la sorgente dell'informazione, il suo utilizzatore e i trasduttori che traducono in o da grandezze elettriche i vari messaggi. Inoltre in T ed R debbono essere contenuti dispositivi adatti a una traslazione degli spettri del segnale verso frequenze radioelettriche, dato che la banda naturale o base del segnale elettrico comprende frequenze che si attenuano troppo rapidamente nello spazio, mentre il segnale radioelettrico (cioè quello in banda base traslato a radiofrequenza) è praticamente esente da entrambi questi difetti. Si deve tuttavia aggiungere che, anche con le attenuazioni del segnale a radiofrequenza, il livello in ricezione di tale segnale rimane sempre così basso da risultare confrontabile col rumore presente nell'apparato ricevente, per cui prima di passare a considerare uno schema più dettagliato del tipico collegamento radio conviene spendere alcune parole sul fenomeno del rumore elettromagnetico.

4. Rumore.

I tipi di rumore che interessano le radiocomunicazioni sono: il rumore atmosferico, il rumore prodotto dall'uomo o rumore artificiale, il rumore galattico, il rumore di assorbimento atmosferico, il rumore dovuto al terreno, il rumore proprio degli apparati. I primi due sono di natura prevalentemente impulsiva, di tipo non gaussiano, mentre gli altri, fatta eccezione per alcuni rumori generati negli apparati, che qui però non verranno presi in considerazione, sono tutti dovuti ad agitazione termica e hanno una distribuzione dei livelli gaussiana.

Il rumore atmosferico è principalmente generato da scariche elettriche che si producono nei vari punti della Terra e i cui effetti si fanno sentire a grandi distanze per propagazione ionosferica. In tutto il globo terracqueo avvengono infatti contemporaneamente quasi duemila temporali, con un centinaio di scariche elettriche al secondo; se si tiene conto delle possibilità di trasmissione offerte dalla ionosfera a frequenze sino a una trentina di megahertz, si comprende come in ogni punto della Terra vi sia sempre un rumore dovuto alla sovrapposizione degli effetti di un gran numero di scariche lontane. In presenza di temporali a tale rumore si aggiunge, ovviamente, quello più marcatamente impulsivo dovuto alle scariche vicine. L'effetto del rumore atmosferico imputabile a scariche lontane decresce al crescere della frequenza e, mentre al di sotto dei 20 MHz esso è praticamente il rumore dominante, esso può essere trascurato al di sopra dei 30 MHz.

Il rumore prodotto dall'uomo, o rumore artificiale, è a sua volta di origine impulsiva ed è imputabile alle scariche che si producono nelle varie applicazioni che l'uomo fa dell'elettricità, dalle grandi reti di distribuzione alle candele delle automobili, ai motori degli apparecchi elettrodomestici. Esso tocca le sue punte massime nelle aree urbane, dove può raggiungere valori di una quindicina di decibel superiori a quelli di zone suburbane. È difficile fornire dati relativi a questo tipo di rumore, che dipende moltissimo dalla zona considerata, ma si può dire che esso decresce al crescere della frequenza e che in zone tranquille il suo effetto può essere trascurato rispetto a quello del rumore galattico per frequenze al di sopra dei 10 MHz. La trasmissione dei rumori artificiali avviene o sulle linee di distribuzione dell'energia o per onda di terra; per frequenze al di sotto dei 20 MHz può tuttavia dare un contributo sensibile anche la propagazione per onda di cielo.

Il rumore galattico deriva dall'irradiazione del Sole, delle radiostelle e di numerosi altri corpi cosmici. Il suo andamento decresce con la frequenza sino a circa 1 GHz per poi rimanere pressoché costante, almeno sino a 10 GHz, ma al di sopra di 250 MHz esso è solitamente soverchiato dal rumore degli apparati. Se si considera un punto a terra, il limite superiore del rumore galattico non può superare comunque il centinaio di gigahertz a causa dell'assorbimento atmosferico, così come è praticamente irrilevante al di sotto di 15 MHz per l'assorbimento ionosferico. Gli effetti dell'irradiazione dei corpi celesti sulle radiocomunicazioni possono essere valutati utilizzando per la brillanza (cioè per la densità di potenza ricevuta in un punto, per hertz e per angolo solido unitario) dovuta all'irradiazione di un corpo a temperatura T, la formula di Rayleigh-Jeans, per cui tale grandezza è data da 2kTb2, essendo k=1,38×10-23 la costante di Boltzmann e Tb la temperatura di brillanza del corpo irradiante, inferiore alla temperatura effettiva T, salvo che nel caso di un corpo nero nel quale è Tb=T. Adottando un sistema di coordinate sferiche con origine nel generico punto di osservazione, risulta in generale Tb=Tb(θ, ϕ), cioè Tb è funzione della direzione secondo la quale si guarda il corpo irradiante. Integrando su di un angolo solido pari a 4π si ottiene tutta la potenza per hertz che incide su un'antenna ricevente posta nel punto d'osservazione. Nel caso di un'ipotetica antenna ricevente isotropa, contenuta in un corpo nero alla temperatura T, tale potenza per hertz risulta pari a 8πkT/λ2, e una frazione di essa pari a kT può essere effettivamente trasferita a un carico adattato (si veda nel capitolo precedente l'espressione della potenza ricevuta; si tenga presente che un'antenna isotropa avente guadagno unitario ha l'area efficace pari a λ2/4π; si faccia l'ipotesi che l'antenna ricevente isotropa sia in grado di reagire a una soltanto di due polarizzazioni ortogonali e si tenga presente che, al fine del calcolo del rumore, ogni polarizzazione contribuisce per metà della potenza totale). Il rumore elementare in una banda df nelle condizioni considerate è pertanto kTdf e il rumore ricevuto N è l'integrale esteso alla banda del ricevitore di tale contributo elementare. Dividendo N per kT si ottiene poi quella che viene definita la banda di rumore B del ricevitore; ovviamente si può scrivere

N=kTB,

formula utile, dato che B risulta indipendente da T.

Per inciso, la potenza N0=kT0B, con T0=290°K(kT0=4×10-21 joule), viene assai spesso assunta come riferimento (ad es. nella fig. 6 sono riportati i valori mediani delle potenze di rumore delle varie sorgenti sinora considerate, relativi a un'antenna omnidirezionale in vicinanza del terreno e divisi appunto per kT0B).

Se l'antenna non è isotropa, ma pur sempre immersa in un corpo nero, la potenza di rumore ricevuta rimane pari a kTB (l'antenna, rispetto all'isotropa, riceve di più da alcune direzioni e meno da altre). L'atmosfera in equilibrio termico e in assenza di sorgenti di rumore galattico può pensarsi racchiusa da un corpo nero alla sua stessa temperatura Tat; pertanto al ricevitore si trasferisce una potenza di rumore kTatB. Si noti che, se si indica con Aat l'attenuazione dovuta all'assorbimento nell'atmosfera, la potenza che parte dal corpo nero e riesce a raggiungere il ricevitore è soltanto kTatB/Aat; dovendo essere kTatB quella totale, ne consegue allora che l'atmosfera stessa contribuisce con un addendo pari a (1−1/Aat) volte il totale. Tale risultato è utile perché permette di affermare che il contributo di rumore dovuto all'assorbimento atmosferico è pari a

Formula mancante

essendo Aat e Tat valori che tengono conto delle disomogeneità dell'atmosfera.

Si consideri ora un'antenna molto direttiva, il cui diagramma di radiazione, praticamente costante in un angolo molto piccolo e nullo esternamente, punti verso uno o più corpi galattici. Il rumore che l'antenna trasferisce al ricevitore è in tal caso quello che compete al o ai corpi galattici verso cui punta l'antenna, più il rumore di assorbimento dell'atmosfera calcolato mettendo in conto Aat e Tat relativi alla regione contenuta nell'angolo di apertura dell'antenna. Appare perciò chiaro che conviene sempre evitare di puntare verso zone rumorose o ‛calde' del cielo, cioè comprendenti corpi galattici, e far sì invece che l'antenna sia rivolta verso una zona ‛fredda' (ciò è molto importante nel caso dei satelliti).

Il rumore dovuto al terreno è un rumore di tipo termico, dipendente dalla temperatura del terreno stesso, a cui si somma la riflessione sulla superficie terrestre di rumori provenienti dall'atmosfera. Esso si fa sentire se l'antenna ha un diagramma di radiazione con valori non nulli nelle direzioni che puntano verso il terreno. Se l'antenna è quella di un collegamento terrestre ciò avviene sempre perché in tal caso il diagramma di radiazione ha il massimo del lobo principale in direzione orizzontale.

Dato che i rumori non sono correlati è possibile mettere in conto attraverso una somma delle varie potenze tutti i contributi di rumore che l'antenna trasferisce al ricevitore; si può per tale motivo scrivere che il rumore totale vale kTaB, dove Ta è la temperatura di rumore d'antenna (così facendo tutti i rumori vengono considerati gaussiani e quindi non si considerano quelli di natura impulsiva).

Per quanto riguarda gli apparati riceventi, il loro rumore è prevalentemente termico, per cui, almeno per la parte lineare dei ricevitori, è possibile ritenere l'apparato privo di rumore o silenzioso e sostituire i suoi generatori interni di rumore (resistenze a varie temperature) aggiungendo il termine kTrB, nel quale Tr è la temperatura di rumore del ricevitore. Si definisce infine una temperatura di rumore di sistema Ts in modo che per la totale potenza di rumore disponibile si possa scrivere

kTsB=kTaB+kTrB.

In un caso in cui sia praticamente Ta=T0 (collegamenti terrestri sopra i 30 MHz), la rumorosità del ricevitore può essere anche valutata attraverso una grandezza F, denominata ‛cifra' o ‛fattore di rumore', essendo

Formula mancante

Dalla prima delle due equivalenti espressioni di F segue che la cifra di rumore è il rapporto fra la potenza di rumore totale in entrata del ricevitore e quella che vi sarebbe se esso fosse silenzioso. Un'interpretazione ancora più significativa si ottiene moltiplicando e dividendo F per il guadagno in potenza disponibile g del 2-porte compreso fra i morsetti di entrata e di uscita della parte lineare del ricevitore (per definizione, se all'ingresso del 2-porte è disponibile una potenza Pi, in uscita è diponibile una potenza Pu=gPi). Indicate infatti con Si ed Su=gSi le potenze di segnale disponibili all'entrata e all'uscita della parte lineare del ricevitore e indicate con Ni=N0=kT0B; ed Nu=g(kT0B+kTrB) le potenze di rumore disponibili a tale ingresso e a tale uscita, si ha

Formula mancante

Pertanto la cifra di rumore risulta uguale al rapporto dei rapporti segnale-disturbo in entrata e in uscita (è sempre F>1, dato che il rapporto segnale-disturbo si deteriora passando dall'entrata all'uscita di qualsiasi ricevitore).

Così come è stata definita, la cifra di rumore può essere utilizzata anche quando non sia praticamente Ta=T0, ma in tali casi è nettamente più conveniente ricorrere alla temperatura di rumore del ricevitore. A tale proposito si può segnalare che da taluni autori la cifra di rumore viene definita facendo ricorso alla vera potenza di rumore disponibile all'ingresso piuttosto che alla potenza di rumore di riferimento kT0B, ma ciò crea soltanto confusione. La cifra di rumore viene quasi sempre espressa in decibel.

Poiché Tr dev'essere tale che la potenza di rumore disponibile in uscita, gkTrB, sia la stessa quando il ricevitore è quello vero oppure quando esso è silenzioso e poiché tale potenza e g dipendono diversamente dall'impedenza su cui è chiusa l'entrata del ricevitore (ovvero dall'impedenza interna del generatore che lo alimenta), Tr ed F dipendono sia dal ricevitore, sia da tale impedenza. Pertanto ogni volta che sia possibile si inserisce fra l'antenna ricevente e l'ingresso del ricevitore un adattatore di impedenza che trasforma l'impedenza d'ingresso dell'antenna in quel valore di impedenza che rende minima la potenza di rumore disponibile in uscita. Conviene infine supporre che la parte lineare del ricevitore sia costituita da due 2-porte in cascata aventi rispettivamente temperature di rumore Tr1 e Tr2 e guadagni in potenza disponibile g1 e g2. Perché all'uscita dei due 2-porte silenziosi la potenza disponibile di rumore sia la stessa che si ha con quelli effettivi, occorre che all'entrata del primo vi sia una potenza disponibile kTr1B (tiene conto del rumore interno al primo 2-porte) più una potenza disponibile kTr2B/g1, che dopo aver attraversato il primo 2-porte, cioè dopo essere stata moltiplicata per g1, si presenti all'entrata del secondo 2-porte come la sua potenza di rumore equivalente. Ne discende che la temperatura di rumore del ricevitore si può scrivere

Formula mancante

Essendo Tr=(F−1) T0, indicate con F1 e F2 le cifre di rumore dei due 2-porte in cascata, si ha anche

Formula mancante

Le due relazioni ora trovate giustificano il fatto che all'ingresso di un radioricevitore si ponga un preamplificatore a radiofrequenza di guadagno sufficientemente elevato (di solito g1>10) e cifra di rumore bassa, perché così facendo si ha

TrTr1 e FF1

(fisicamente ciò si giustifica col fatto che i rumori introdotti dopo il preamplificatore vanno ad aggiungersi a un segnale e a un rumore che, avendo già subito un'amplificazione, sono abbastanza forti da rendere trascurabili i rumori introdotti successivamente). Il preamplificatore di cui sopra va posto il più vicino possibile all'antenna ricevente, perché la linea di trasmissione determina con il suo rumore un aumento del rumore all'entrata del ricevitore rispetto a quello all'uscita dell'antenna, così come avveniva nel caso del rumore di assorbimento atmosferico. In particolare, se la linea è a temperatura T1 il rumore all'entrata del ricevitore vale

Formula

essendo il primo addendo il rumore d'antenna, diminuito, come il segnale, del fattore A di attenuazione della linea, e il secondo il rumore di assorbimento della linea stessa. Come si vede, se fosse A=1 (linea senza perdite) non vi sarebbe aumento del rumore per assorbimento della linea e il rapporto segnale-rumore all'entrata e all'uscita di quest'ultima sarebbe lo stesso. Poiché la cifra di rumore di una linea di attenuazione A a temperatura Tl vale

Formula

se è Tl=T0 si ha

F=A,

relazione molto facile da ricordare e assai utile quando la linea è a temperatura ambiente.

Il discorso sul rumore in un radioricevitore non può in generale prescindere dalle perdite ohmiche dell'antenna che, dando luogo a un assorbimento, sono a loro volta causa di rumore. Vista dal ricevitore, l'antenna ricevente presenta un'impedenza (si suppone che tale impedenza sia puramente resistiva) che è la somma della resistenza di irradiazione Rrad e di quella ohmica R, in serie con un generatore di tensione che tiene conto del rumore captato dall'antenna e di quello da essa generato. Poiché i due rumori non sono correlati, in uscita essi si presentano sommati in potenza, quello captato dall'antenna, kTaB, moltiplicato per il rendimento di radiazione, Rrad/(Rrad+R), che tiene conto della frazione di questo rumore assorbita in antenna per le perdite ohmiche, e quello dovuto a R, kTantB, se la temperatura a cui si trova il materiale che costituisce l'antenna è indicata con Tant, moltiplicato per R/(Rrad+R) per tener conto che parte della potenza disponibile di rumore generata in R non è disponibile all'uscita dell'antenna in quanto viene irradiata; pertanto la potenza disponibile di rumore totale all'uscita dell'antenna è data da

Formula

Dato che la potenza disponibile di segnale captata dall'antenna viene a sua volta moltiplicata per il rendimento di radiazione, il rapporto segnale-rumore che l'antenna pone a disposizione del ricevitore vale

Formula

Se ne trae la conclusione che, se la temperatura di rumore dell'antenna Ta è molto maggiore della temperatura fisica a cui si trova l'antenna stessa, tutto va indipendentemente dalle perdite ohmiche e l'antenna può anche essere fatta di un cattivo materiale. In tal caso si potrebbe fare una distinzione fra antenne utilizzabili in trasmissione (per le quali è importante il guadagno in potenza) e antenne utilizzabili in ricezione (per le quali sarebbe importante soltanto il guadagno in direttività), ma in pratica le antenne sono fatte tutte con gli stessi materiali. Se al contrario è Ta confrontabile con Tant o addirittura minore di essa (il che accade per le antenne di terra dei collegamenti via satellite), è importante che le perdite ohmiche, e quindi R, siano le più piccole possibili.

5. Architettura e caratteristiche generali di un sistema di radiocomunicazioni.

Il segnale elettrico che si ottiene trasformando un messaggio in una grandezza elettrica ad andamento variabile nel tempo è in generale esprimibile come somma di forme d'onda sinusoidali di frequenza, ampiezza e fase opportune.

Con un'analogia gastronomica ciò significa che, come si ottengono piatti diversi con ingredienti assegnati purché si cambi la ricetta (cioè la dose di ciascun ingrediente), così si possono ottenere segnali diversi con frequenze assegnate purché si cambino lo spettro d'ampiezza (andamento dell'ampiezza in funzione della frequenza) e lo spettro di fase (andamento della fase in funzione della frequenza). L'intervallo di frequenza in cui lo spettro (d'ampiezza) del segnale è diverso da zero (ampiezze significative) viene denominato banda (di frequenza) del segnale. Se dopo una trasmissione il segnale ricevuto contiene frequenze (in banda o fuori) che non erano presenti in partenza, il segnale ha subito una distorsione non lineare o di ampiezza. Se lo spettro d'ampiezza in ricezione non è uguale a quello in trasmissione moltiplicato per una costante, il segnale ha subito una distorsione di frequenza (velocità di fase non costante al variare della frequenza). Se lo spettro di fase in arrivo differisce da quello trasmesso e tale differenza non è proporzionale alla frequenza, il segnale ha subito una distorsione di fase. Le distorsioni di frequenza e di fase sono anche definite distorsioni lineari, dato che si possono manifestare in sistemi completamente lineari, in contrapposizione con la distorsione non lineare o d'ampiezza che si manifesta soltanto in presenza di non linearità in qualche parte del sistema trasmissivo. Se interessa che rimanga indistorto il solo segnale modulante è sufficiente che sia costante in banda la velocità di gruppo dω/dβ, anziché la velocità di fase ω/β. In linea di principio le distorsioni lineari possono sempre essere compensate facendo ricorso a equalizzatori (di ampiezza o di fase), che sono due porte aventi, rispetto a quello desiderato, comportamento complementare a quello della rimanente parte del sistema. I sistemi più sofisticati hanno equalizzatori automatici per compensare variazioni del sistema di trasmissione che intervengano nel tempo. Un segnale indistorto in ricezione è uguale a quello in trasmissione moltiplicato per una costante e ritardato di un certo tempo. Il raggiungimento di questo obiettivo è tanto più difficile quanto più elevata è la banda relativa del segnale, cioè il rapporto fra la banda del segnale e la frequenza intermedia fra la massima e la minima frequenza di tale banda. Ciò, a parità di banda del segnale, significa che conviene traslare la banda stessa verso l'alto in modo da aumentare il denominatore nell'espressione della banda relativa; così facendo, una generica frequenza della banda differisce poco da quella intermedia relativamente al suo valore assoluto ed è più facile rispettare le condizioni di non distorsione. Come si è detto nel cap. 3, in tale maniera si riescono anche a ottenere valori più soddisfacenti dell'attenuazione del segnale irradiato da un'antenna. Quanto sopra porta a rappresentare come nella fig. 7 la più generale architettura del trasmettitore di un sistema di radiocomunicazioni. In tale figura si vede che dapprima il messaggio viene trasformato in un segnale elettrico che, a sua volta, viene trattato (eventualmente associato con altri segnali elettrici) così da dar luogo a una forma d'onda modulante la cui banda può essere denominata banda base. Se si considera il caso della modulazione continua, si può dire che una sinusoide (generata in uno stadio detto ‛pilota' del trasmettitore e denominata ‛portante') viene inserita unitamente alla modulante in un modulatore all'uscita del quale i valori della modulante hanno modificato secondo leggi note una (o più) delle grandezze che caratterizzano la portante (ampiezza, fase e frequenza). L'informazione contenuta nel messaggio viene così trasferita nell'andamento temporale di una (o più) di tali grandezze. I casi largamente più importanti sono quelli della modulazione di ampiezza, di fase, di frequenza. Queste ultime due, che sono facilmente riconducibili l'una all'altra, sono anche denominate modulazioni angolari, nel senso che nel loro caso ciò che viene modulato è l'argomento (un angolo appunto) della funzione trigonometrica che descrive la portante. Il segnale radioelettrico può essere anche costituito da più segnali riuniti, ciascuno dei quali appoggiato a una propria portante e con un proprio tipo di modulazione. Tipico esempio di quanto ora detto è il segnale televisivo che ha la parte video a modulazione d'ampiezza e quella audio a modulazione di frequenza. Un amplificatore può seguire o meno la parte già descritta del trasmettitore prima di giungere all'antenna trasmittente. Qualora tale amplificatore sia presente, dovendo esso trattare segnali a potenze elevate, dev'essere accuratamente progettato per evitare distorsioni non lineari. In generale si può poi dire che è necessario un filtro per limitare drasticamente la banda in trasmissione. Per quanto riguarda il ricevitore, nella versione più generale (v. fig. 8) si riconosce, dopo l'antenna ricevente, un amplificatore a radiofrequenza che ha il compito di fissare ai valori più bassi possibili il rapporto segnale-disturbo. Successivamente un filtro a radiofrequenza ha lo scopo di evitare quanto più è possibile l'ingresso nel ricevitore di dannose interferenze dovute a trasmissioni diverse da quella che si desidera ricevere. Segue quindi un dispositivo non lineare, denominato ‛mescolatore', nel quale il segnale in arrivo viene moltiplicato per una sinusoide generata da un oscillatore locale. L'uscita del mescolatore viene quindi filtrata e rimane un segnale le cui frequenze sono quelle dello spettro del segnale in arrivo (che era collocato a cavallo della frequenza portante fp) traslate a cavallo della frequenza intermedia fi=∣fpf0∣, essendo f0 la frequenza dell'oscillatore locale. Il filtro IF ha il compito di ridurre la banda di segnale a quella strettamente necessaria. Si noti che essendo fi espressa attraverso il modulo della differenza fpf0, il filtro stesso, oltre alla trasmissione desiderata, ne lascia passare un'altra a frequenza fp+2fi, se fp è inferiore a f0, e fp−2fi nel caso opposto. Tale frequenza, detta ‛immagine', non può pertanto essere bloccata che dal filtro RF oppure eliminata nella conversione di frequenza effettuata nel mescolatore. Un demodulatore ha infine il compito di estrarre la modulante del segnale IF che poi può essere amplificata in un amplificatore a bassa frequenza prima di essere trasferita all'utilizzatore. Lo schema descritto è quello di un ricevitore supereterodina, che oggi è quello quasi esclusivamente impiegato. Se la modulazione è di impulsi, anziché continua, la sinusoide portante viene sostituita da una successione di impulsi (cioè di brevi tratti) della sinusoide stessa. Gli impulsi possono essere modulati in ampiezza (PAM: Pulse Amplitude Modulation), in durata o in larghezza (PDM o PWM: Pulse Duration o Pulse Width Modulation) e in posizione (PPM: Pulse Position Modulation). Si può anche ricorrere a una variazione della frequenza dell'impulso in dipendenza del segnale modulante, nel qual caso si parla di modulazione di frequenza degli impulsi (PFM: Pulse Frequency Modulation). La possibilità di utilizzare una portante impulsata anziché continua deriva dall'esistenza di un teorema, detto del campionamento, il quale afferma che conoscere il comportamento del segnale in un numero discreto e sufficientemente elevato di istanti di un intervallo di tempo assegnato è del tutto equivalente a conoscerne il comportamento in tutti gli istanti di quell'intervallo. Per inciso, niente di diverso da quello che accade in un film, nel quale il movimento dell'immagine in un certo intervallo di tempo è ricavato dal nostro occhio da una serie sufficientemente elevata di immagini statiche che gli vengono proposte. Il vantaggio della modulazione di impulsi è che attraverso di essa si può ricorrere a una multiplazione a divisione di tempo (TDM: Time Division Multiplation), trasmettendo in sequenza impulsi modulati da segnali diversi. La modulante infine può essere un segnale numerico, cioè una successione di impulsi rettangolari la cui ampiezza può assumere un numero limitato di valori. Per fissare le idee si consideri il caso più semplice in cui tali valori sono due soltanto, ad esempio 1 e 0 oppure 1 e −1. In tali casi moltiplicando la portante per la modulante si ottiene una modulazione OOK (On-Off Keying) o, rispettivamente, PSK (Phase Shift Keying). Si può anche far ricorso a un metodo di modulazione nel quale la frequenza di un impulso a radiofrequenza assume due diversi valori, f1 ed f2, in dipendenza del valore presentato dall'impulso contemporaneo della modulante. Si dice in tal caso che si lavora in FSK (Frequency Shift Keying) e il caso rientra in quello più generale PFM considerato in precedenza, quando la modulante poteva anche non essere numerica. È di estrema importanza tenere presente che nel segnale numerico l'informazione è contenuta nella presenza o meno di un impulso, indipendentemente dalla forma del medesimo, il che significa che si possono accettare distorsioni e rumore molto più forti con un segnale numerico che con un segnale analogico e che si può ricorrere a una rigenerazione del segnale. In particolare quest'ultima tecnica prevede che nel ricevitore sia presente, dopo il circuito che campiona il segnale in istanti assegnati per mettere in evidenza la presenza o meno di un impulso, un circuito rigeneratore che quando occorre generi un impulso nella forma che esso aveva prima di essere trasmesso. Ciò in particolare significa che, al contrario di quanto avviene per l'analogico, le distorsioni e i rumori di varie tratte di un collegamento (quando la lunghezza di un collegamento è elevata, esso viene spezzato in varie tratte da una serie di ripetitori, cioè di apparati che ricevono e ritrasmettono il segnale a livelli più elevati) non si cumulano, cioè ogni tratta si comporta indipendentemente dalle altre (l'unica possibilità di influenza reciproca fra tratte è che una tratta cancelli gli errori di un'altra - ad esempio la prima veda un impulso dove non c'è e la seconda non veda un impulso che c'è - ma la probabilità che ciò avvenga è bassissima).

Tabella 2

Come sempre accade, ogni vantaggio ha una sua contropartita negativa e nel caso in questione i vantaggi del numerico rispetto all'analogico sono bilanciati dalla necessità di una banda maggiore per trasmettere la stessa quantità di informazione o dalla necessità di far ricorso ad apparecchiature molto complicate. La prima contropartita, come verrà sottolineato anche in seguito, aggrava i problemi derivanti dalla limitatezza dello spettro radioelettrico, per cui si è spinti verso lo studio e la realizzazione di sistemi sempre più sofisticati che aumentino la quantità di informazione trasmessa per hertz e siano al tempo stesso compatibili con le condizioni di funzionamento attuali. Nei segnali analogici modulati in ampiezza la demodulazione è di solito di inviluppo, cioè si prende la sola parte positiva del segnale a frequenza intermedia che, successivamente filtrata con un passa basso, fornisce il segnale modulante. Nei segnali sempre analogici, ma modulati in frequenza, il demodulatore prende il nome di ‛discriminatore' e ha la funzione di dare un'uscita la cui ampiezza è proporzionale alla frequenza, il che in tale tipo di modulazione significa proporzionale al segnale a bassa frequenza. Nel caso di segnali numerici la demodulazione nel ricevitore può essere coerente, cioè l'oscillatore locale può riprodurre la portante e il risultato (filtrato) del prodotto del segnale in arrivo per la portante così ‛rigenerata' è il segnale in banda base; le funzioni di conversione di frequenza e di demodulazione vengono in tal caso a riunirsi in un unico componente circuitale.

6. Sistemi di radiocomunicazioni.

Le radiocomunicazioni, come si è già detto in precedenza, sono particolarmente adatte per collegare punti mobili. In varie situazioni esse tuttavia sono molto convenienti anche nei collegamenti fra punti fissi, sia dal punto di vista economico, sia da quello del tempo necessario per realizzare un impianto.

Tralasciando le comunicazioni in onde lunghe, un'elencazione dei più importanti sistemi di radiocomunicazioni, fatta per frequenze via via crescenti, inizia con quelli per la diffusione dei programmi audio (radiodiffusione) a onde medie, corte e cortissime, costituiti da una serie di trasmettitori modulati in ampiezza. Nelle onde corte trovano spazio anche le comunicazioni fra punti fissi e mobili che tanto hanno contribuito all'affermazione della radio; esse tuttavia vanno sempre più perdendo importanza nel campo civile per la migliore qualità delle comunicazioni via satellite. All'estremo superiore delle onde corte è anche collocata una banda, detta banda cittadina (City Band) o semplicemente CB, che è di libero accesso e nella quale, oltre a trovare sfogo la passione e il desiderio di divertirsi di molti utenti, possono anche svilupparsi spontaneamente interessanti forme di servizi umanitari. A tale proposito è anche il caso di ricordare la categoria dei radioamatori, che raccoglie appassionati della radio più esperti dei CB e che ha più bande a propria disposizione. Nel campo delle VHF e UHF si collocano le reti di terra per la diffusione dei programmi audio a modulazione di frequenza e dei programmi audiovisivi (televisione). Le reti televisive sono costituite da numerosi trasmettitori e ripetitori. Il collegamento fra i trasmettitori è assicurato mediante una rete di ponti radio, mentre quello con i ripetitori avviene mediante lo stesso segnale televisivo, che il ripetitore riceve e ritrasmette amplificato. In futuro è possibile che il collegamento fra i trasmettitori venga fatto anche con portanti fisici (cavi coassiali, fibre ottiche) di adeguata larghezza di banda. Nelle VHF e UHF sta sviluppandosi il servizio radiomobile, sia pubblico, sia privato. In effetti, in questo tipo di applicazione trova particolare risalto la qualità prima della radio, quella di permettere una comunicazione ‛senza fili'. A frequenze più elevate i ponti radio hanno ormai conquistato un posto di rilievo nei collegamenti terrestri fra punti fissi, sia per la relativa semplicità delle installazioni, specialmente in presenza di orografie tormentate, sia per la loro sempre maggiore disponibilità (percentuale di tempo nella quale il sistema funziona con qualità di trasmissione superiore a una soglia preassegnata). La rete di ponti radio televisivi funziona sui 2 GHz, mentre quelli della rete telefonica pubblica utilizzano 4, 6 e 7 GHz. Tali frequenze consentono l'impiego di antenne notevolmente direttive e quindi una corretta utilizzazione della potenza irradiata, che viene convogliata in prevalenza nella direzione del ricevitore, ma sono molto sensibili alla presenza di ostacoli. Per questo motivo è necessario collocare in punti i più elevati possibile le stazioni ripetitrici e terminali (per queste ultime le possibilità di collocazione sono limitate, anche se si utilizzano delle code in coassiale per entrare in città), ma ciò comporta problemi di infrastrutture (strade di accesso, alimentazione) e di sorveglianza. La strada di accesso non è necessaria se l'alimentazione del ponte avviene mediante celle solari o mediante generatori termoelettrici che richiedano rifornimenti soltanto a intervalli di molti mesi. In tali casi l'installazione e l'eventuale rifornimento di carburante può attuarsi mediante elicotteri, mentre la stazione dev'essere telesorvegliata. In caso di guasti il ponte dev'essere facilmente sostituibile (ma questa è una tendenza generalizzata nella moderna manutenzione degli apparati), non essendo possibile un'agevole riparazione in loco. La difficoltà di accesso derivante dalla mancanza della strada è però di nocumento qualora si voglia provvedere a un servizio di sorveglianza per motivi di sicurezza. È un aspetto da non trascurare, dato che proprio il vantaggio tecnico-realizzativo di concentrare in pochi punti gli apparati e tutto quanto è necessario al collegamento si rivela, sotto il punto di vista della sicurezza contro i sabotaggi, il tallone di Achille dei ponti radio.

La lunghezza media delle tratte in ponte radio è di circa 50 km. Sempre nel campo delle frequenze al di sopra del gigahertz, negli ultimi anni è iniziata l'era del più tipico dei sistemi radio, quello che impiega un satellite (o più satelliti, in futuro) per ritrasmettere i segnali amplificati, ed eventualmente rigenerati, su frequenze e in direzioni differenti da quelle di arrivo. In effetti soltanto la radio poteva permettere l'utilizzazione di un ripetitore, che, nel caso dei satelliti geostazionari, è situato a 36.000 km di distanza dalla Terra e soltanto il satellite poteva offrire possibilità di copertura immediata di vaste regioni del nostro globo, senza preoccupazioni derivanti dalla presenza di ostacoli sul cammino delle radioonde. Anche se concettualmente non vi è differenza fra un ponte radio a due tratte e un collegamento via satellite, grande è la differenza pratica che deriva dal peso limitato e dalla difficoltà di alimentazione di una stazione ripetitrice su satellite, dalla lunghezza di tratta eccezionalmente grande nei collegamenti via satellite e dalle diverse condizioni di propagazione delle onde radioelettriche, in dipendenza dei diversi percorsi che le interessano. La tecnica e la tecnologia moderne stanno peraltro evolvendosi in maniera vertiginosa verso la riduzione dei circuiti elettrici allo stato solido (LSI = Large Scale Integration e VLSI = Very Large Scale Integration, per gli integrati monolitici, e circuiti a film sottile su supporto dielettrico, come allumina, zaffiro, quarzo fuso, per gli integrati ibridi), sia per ridurre pesi e ingombri, sia per assicurare una maggiore affidabilità (misurata dal tempo medio intercorrente fra guasti MTBF = Mean Time Between Failures). Tenuto presente che vanno aumentando le possibilità di ottenere allo stato solido potenze sempre maggiori con un minore ammontare di potenza alimentante, si può essere ottimisti circa le possibilità future, anche perché le condizioni di funzionamento di un collegamento via satellite sono molto stabili e quindi esso può più facilmente essere progettato. Nei collegamenti via satellite per telecomunicazioni si fa oggi largo impiego di satelliti geostazionari, cioè di satelliti posti in orbita equatoriale a una distanza (come si è detto, circa 36.000 km) alla quale la velocità angolare di equilibrio eguaglia quella della rotazione terrestre. Con tre di tali satelliti si copre tutto il globo terracqueo (a parte le calotte polari) e si può assicurare il collegamento fra due punti qualsiasi su di esso. Evidentemente ciò pone un problema tipico delle comunicazioni satellitarie, cioè l'utilizzazione contemporanea da parte di più utenti dello stesso satellite (accesso multiplo). Si hanno in particolare sistemi FDMA (Frequency Division Multiple Access) e TDMA (Time Division Multiple Access) che si differenziano a seconda che i vari utenti usino differenti bande di frequenza o accedano in sequenza al satellite per intervalli brevissimi di tempo e in modo tale che le interruzioni non siano percettibili da parte di alcuno di essi; si può anche usare un accesso multiplo a differenza di codice con portanti isofrequenziali. Per migliorare l'utilizzo delle risorse disponibili si è fatto anche ricorso a un'assegnazione del satellite a un dato collegamento solo su richiesta (DAMA = Demand Assignment Multiple Access) e si impiega talvolta un procedimento che sfrutta le pause di un'emissione vocale (DSI Digital Speech Interpolation) per raddoppiare praticamente la quantità di informazione che si può trasmettere in una banda assegnata. Dato che i satelliti per impiego pubblico usano le frequenze di 6 GHz (Terra-satellite) e 4 GHz (satellite-Terra), nascono problemi di compatibilità con i ponti radio terrestri. Inoltre il livello bassissimo del segnale in arrivo a terra richiede una notevole protezione della stazione ricevente dai rumori prodotti dall'uomo. Un brillante espediente, a questo riguardo, è stato adottato in Italia nella stazione del Fucino della Telespazio, che sfrutta la naturale protezione offerta da un cratere vulcanico. Il preamplificatore dev'essere il meno rumoroso possibile e a tal fine viene raffreddato a bassissime temperature (oggi si fa quasi generalmente ricorso ad amplificatori parametrici).

7. Problemi e prospettive futuri.

Seguendo l'ordine di presentazione adottato nel capitolo precedente, si deve innanzitutto precisare qual è la percentuale di popolazione servita dalle varie reti radiotelevisive italiane. Dati ufficiali fissano tali percentuali nel 96% per il Programma nazionale, nel 92% per il Secondo programma, e nel 54% per il Terzo programma per quanto riguarda la rete radiofonica a onda media. Per le reti radiofoniche a modulazione di frequenza (tre reti nazionali, più due locali e una stereofonica) la popolazione servita è il 99,4% di quella nazionale. Nel 1976 gli impianti televisivi, dopo 22 anni dall'inizio ufficiale del servizio in Italia, servivano il 98,66% della popolazione italiana per la Rete 1, mentre per la Rete 2 la percentuale era del 96,56%. Questi dati sono stati riportati per dimostrare la pratica impossibilità di servire la totalità della popolazione con reti di terra radiotelevisive. È un problema che nel futuro troverà soluzione attraverso l'uso di satelliti per diffusione radiotelevisiva, i quali non solo assicureranno la copertura totale di un territorio, ma offriranno anche la possibilità di passare in tempo brevissimo (il tempo necessario per mettere in orbita un satellite) dall'assenza di un servizio alla disponibilità del medesimo per tutta la popolazione. Vi saranno tuttavia da affrontare problemi di copertura, perché non sarà di fatto possibile limitare esattamente l'irradiazione di un programma al territorio del paese cui esso è ufficialmente destinato. L'utilizzazione ottimale dello spettro richiede poi di ridurre l'impiego della banda necessaria per la trasmissione dei segnali radiofonici. Le attuali possibilità offerte dai circuiti elettronici integrati rendono accettabili metodi di modulazione sofisticati, atti a ridurre la banda o ad aggiungere nuovi segnali a quelli modulanti già impiegati. In particolare si può passare dalla doppia banda laterale della modulazione d'ampiezza alla banda laterale unica con praticamente un raddoppio delle trasmissioni effettuabili nella stessa banda.

Nel campo televisivo una prospettiva interessante consiste nella trasmissione durante gli intervalli di blanking di immagini fisse. La stessa tecnica permetterebbe di ridurre la banda necessaria per trasmettere un programma, sovrapponendo l'audio in forma numerica al segnale video. Tuttavia le difficoltà inerenti a una soluzione del genere sarebbero enormi e i tempi necessari per arrivarvi lunghissimi, dato che, non essendo i nuovi apparati compatibili con i precedenti, si dovrebbe procedere per lungo tempo con trasmissioni effettuate con due tecniche diverse. Altrettanto lontana appare la possibilità di televisione stereoscopica. Tecnologicamente si è in attesa di schermi televisivi piatti che sostituiscano i cinescopi, causa prima dell'ingombro notevole degli attuali televisori.

Nel campo del radiomobile si prevedono grandi sviluppi e di conseguenza gravi problemi di coesistenza dovuti all'elevato numero di utenti. Una variante sul tema del radiomobile è offerta dal servizio paging, che consiste nella trasmissione di un segnale di chiamata a un utente dotato di un ricevitore tascabile, che poi provvederà a stabilire un contatto bidirezionale mediante la rete telefonica. Il sistema offre un grande rendimento nell'utilizzazione dello spettro, con moltissime chiamate al secondo (vi sono già sistemi locali con più di 1.000 utenti). Ciò è permesso da una codifica che dev'essere ovviamente diversa da utente a utente, ma che può essere ripetuta per sistemi sufficientemente distanti l'uno dall'altro. Ovviamente tale soluzione non sarà impiegabile nel caso di sistemi a vasta copertura, nei quali decine di migliaia di utenti si ritroveranno sulla stessa frequenza (in Inghilterra il Post Office sta sviluppando un sistema il cui obiettivo di sviluppo finale è di 1,5 milioni di abbonati) e per i quali si porranno problemi di collegamento fra le varie zone.

Passando a considerare i ponti radio, il futuro porterà da un lato a una migliore utilizzazione della banda da parte dei ponti radio analogici e dall'altro all'introduzione di ponti radio numerici, al posto degli analogici, o all'uso di frequenze più elevate (anche al di sopra dei 10 GHz). Per il primo punto si potrà aumentare la capacità o con ponti interstiziali, utilizzanti bande di frequenza situate fra canali radio esistenti, oppure aumentando il numero di canali telefonici per canale radio (ad esempio da 1.800 a 2.700 e da 2.700 a 3.600). Per ridurre gli effetti delle interferenze fra canali adiacenti sarà in tali casi necessario ricorrere alla discriminazione offerta dalla polarizzazione incrociata e sarà pertanto di grande interesse conoscere gli effetti depolarizzanti dovuti ai cammini multipli e alla pioggia alle varie frequenze in gioco. Un aumento di capacità dei ponti radio più consistente si potrà avere con l'adozione della banda laterale unica (SSB = Single Side Band), a spese di una maggiore complicazione degli apparati. Ad esempio, nella banda dei 6 GHz in un canale radio avente una banda di 30 MHz sarà possibile allocare 6.000 canali telefonici al posto dei 1.800 attuali in FM. Per ottenere un corretto funzionamento dei ponti SSB si dovrà far ricorso all'equalizzazione dinamica e alla diversità spaziale. Per quanto riguarda i ponti radio numerici nelle bande dei 2, 4, 6 e 7 GHz, che potranno quindi prendere il posto di ponti analogici, si dovrà far ricorso a sofisticati metodi di modulazione per avere una capacità per canale radio consistente, ma ciò renderà il ponte particolarmente sensibile agli scostamenti dalle condizioni ideali di funzionamento e ciò sarà particolarmente importante quando, per ragioni di economia, si utilizzeranno le esistenti infrastrutture con lunghezze di tratta di circa 50 km. Per quel che riguarda i ponti radio al di sopra dei 10 GHz si dovranno invece affrontare i problemi derivanti dalla presenza di pioggia e le tratte dovranno essere convenientemente accorciate (sono tuttavia in funzione ponti radio a 11 GHz su tratte di 50 km).

Rimane infine da considerare il campo dei satelliti. In esso si è di fronte a un continuo miglioramento delle prestazioni per i progressi della tecnologia dello stato solido che, prima o poi, finirà coll'eliminare i tubi a onda progressiva. Essa inoltre ha già offerto possibilità di commutazione sfruttate per sostituire circuiti guasti con altri di riserva. La commutazione a bordo verrà anche usata per trasferire i segnali da un lobo a un altro di un satellite multilobi. Tale tipo di satellite offrirà la possibilità di riuso delle frequenze per collegamenti da punto a punto, oppure avrà i lobi sagomati in modo da coprire soltanto aree determinate, come serve nel caso della radiodiffusione via satellite. Si potrà così far fronte alla sempre maggiore saturazione dello spettro radioelettrico destinato ai collegamenti spaziali e, con ridotti lobi laterali, si ovvierà anche all'affollamento dell'orbita geostazionaria (attualmente la spaziatura angolare accettabile fra due satelliti è di 4,5°-5°). Questa rapida scorsa delle prospettive offerte dai satelliti non può concludersi senza un cenno alla prossima entrata in funzione della navetta spaziale (space shuttle) che, oltre a ridurre i costi per mettere in orbita i satelliti, non solo di telecomunicazioni, permetterà anche di fare cose sinora impossibili. In particolare essa da un lato consentirà la messa in opera, in orbita, alla stessa altezza della shuttle, di piattaforme costituite da un complesso di antenne, ripetitori e celle solari che poi verranno portati sino all'orbita geostazionaria, e dall'altro offrirà la possibilità di rimpiazzare apparati nel caso di guasti o di obsolescenza.

Bibliografia.

Bell telephone laboratories, Transmission systems for communications, 1964.

Carassa, F., Comunicazioni elettriche, Torino 1977.

Corazza, G. C., Fondamenti di campi elettromagnetici e circuiti, Bologna 1974.

De Castro, E., Fondamenti di comunicazioni elettriche, Bologna 1966.

Henney, K., Radio engineer handbook, New York 1959.

Jasik, H., Antenna engineering handbook, New York 1961.

Norton, K. A., Transmission loss in radiopropagation, National Bureau of Standards Technical Note 12, 1959.

??? Reference data for radio engineers, Indianapolis 1975.

Terman, F., Electronic and radio engineering, New York 1955.

Valdoni, F., Radiotecnica, Bologna 1971.

Comunicazioni televisive

SOMMARIO: 1. Introduzione. □ 2. Principi base della trasmissione televisiva. □ 3. Storia della televisione. □ 4. La tecnica televisiva: a) caratteristiche della trama di immagine; b) numero delle linee di scansione; c) scansione interallacciata; d) i dispositivi da ripresa; e) la televisione a colori; f) successivi trattamenti elettronici del segnale video; g) la trasmissione dei segnali televisivi; h) il sistema di ricezione televisiva; i) dispositivi ausiliari; l) distribuzione del segnale. 5. Applicazioni: a) la diffusione circolare; b) applicazioni scientifiche e industriali della televisione; c) le comunicazioni televisive bilaterali; d) la trasmissione delle immagini fisse; e) applicazioni didattiche della televisione; f) rilevamento delle condizioni meteorologiche, ecologiche, geologiche e geografiche della Terra. 6. Situazione mondiale dello sviluppo e dell'utilizzazione della televisione: a) le organizzazioni mondiali per la trasmissione via satellite; b) la diffusione nel mondo delle reti per la televisione via cavo; c) enti e organizzazioni di ricerca sulle telecomunicazioni. 7. Prospettive future: a) innovazioni e perfezionamenti tecnici; b) future applicazioni della televisione. □ Bibliografia.

1. Introduzione.

Durante l'ultimo secolo, l'impetuoso sviluppo tecnologico ha consentito di soddisfare molte delle aspirazioni umane. La costruzione di veicoli sempre più complessi e perfezionati, che hanno permesso di coprire distanze via via crescenti, non ha però realizzato un antico desiderio umano, quello, cioè, di poter esser presente in qualsiasi luogo, senza limiti di distanza, anche contemporaneamente; sono stati perciò escogitati altri mezzi per arrivare anche a punti dello spazio che, per svariati motivi, erano irraggiungibili.

L'uomo interagisce con l'ambiente principalmente per mezzo dei sensi, che gli consentono di prendere cognizione della realtà, e per mezzo delle azioni espressive e motorie, che gli consentono di modificarla secondo il proprio desiderio; tra i sensi, indubbiamente sono da considerare come principali, per una più immediata e completa cognizione della realtà, l'udito e la vista. È quindi logico che, per ‛trasferire' la propria presenza, l'uomo abbia cercato di poter sentire e vedere a distanza. Oggi le trasmissioni audio e televisive, con le loro varianti, sono una realtà che coinvolge i più svariati campi dell'attività umana.

Da parte di un individuo che ha interesse a un evento, sono possibili due atteggiamenti diversi: uno, passivo, per cui l'osservatore si limita a essere spettatore; l'altro, attivo, per cui l'osservatore interviene direttamente con le azioni che ritiene più opportune. Questi due comportamenti sono attuabili anche nel caso della trasmissione a distanza dell'informazione. In conseguenza esistono due tipi diversi di sistemi di trasmissione: la radiodiffusione e la diffusione televisiva soddisfano le esigenze dei molti osservatori passivi; quando invece si desideri intervenire attivamente, come è il caso delle comunicazioni bilaterali e in molte applicazioni di intervento a distanza che implicano una trasmissione dell'informazione nei due sensi, vengono usati il telefono, il videotelefono, il telecomando, ecc.

Da queste brevi considerazioni si può facilmente intuire quali siano stati gli effetti che lo sviluppo dei sistemi per la trasmissione delle informazioni ha determinato in tutti i settori delle attività umane e in ultima analisi sulle relazioni sociali e sul modo di vivere dell'umanità. Tra i sistemi di trasmissione dell'informazione un ruolo di particolare importanza è svolto dalle comunicazioni televisive, che si sono sviluppate in questo secolo e hanno avuto una larghissima diffusione proprio negli ultimi decenni.

Attenendosi strettamente all'etimologia, la parola ‛televisione' dovrebbe comprendere la trasmissione a distanza di qualsiasi immagine; il significato corrente che gli viene invece attribuito è quello di trasmissione a distanza di immagini e scene ‛in movimento' ed esclude i sistemi per le trasmissioni di immagini fisse, per le quali è preferibile usare l'espressione ‛trasmissione in fac-simile' o ‛fototelegrafia'. Per completezza, si fa presente che anche altri tipi di immagini possono essere trasmessi a distanza, come le rappresentazioni grafiche originate da calcolatori impiegati nelle soluzioni di svariati problemi.

La trasmissione di immagini fisse ha molti punti in comune con la trasmissione televisiva e del resto le immagini in movimento, come avviene anche nella cinematografia, non sono altro che una sequenza di immagini fisse in rapida successione, che producono una sensazione di movimento per l'effetto di persistenza dell'immagine sulla retina. La sequenza delle immagini, per una corretta sensazione di movimento, deve però svolgersi con velocità relativamente elevata; vi sono pertanto delle notevoli differenze tra i criteri realizzativi della trasmissione televisiva - nella quale il tempo di trasmissione di ogni singola immagine ha limiti ben precisi per consentire l'invio dell'immagine successiva - e della trasmissione di immagini fisse - per la quale il tempo di trasmissione non ha limitazioni, salvo alcune di natura pratica ed economica.

2. Principi base della trasmissione televisiva.

Alcuni dei principi che sono alla base della televisione sono insiti nella struttura e nel comportamento dell'occhio, per cui è utile premettere alcune semplici considerazioni al riguardo.

Come è noto, l'immagine di un oggetto o di una scena si forma sulla retina, ove è localizzata una grande quantità di elementi sensibili alla luce, connessi a una terminazione nervosa, ognuno dei quali stimola il nervo ottico in ragione della luce che lo investe. Il nervo ottico reca poi l'informazione proveniente da ciascuno degli elementi sensibili fino al cervello che ricostruisce l'immagine.

L'occhio quindi suddivide l'immagine in piccole porzioni, ognuna delle quali costituisce un'area elementare' dell'immagine. Gli elementi sensibili associano a ciascuna area elementare un'informazione relativa all'illuminazione e anche un'informazione sul colore della luce incidente. Il dettaglio dell'immagine è legato alla finezza della suddivisione, cioè al numero di elementi sensibili presenti per unità di superficie della retina.

Per la trasmissione delle immagini bisogna operare, almeno in parte, nello stesso modo: poiché non esiste un sensore singolo capace di rilevare un'immagine nella sua interezza, occorre suddividerla in aree elementari, ciascuna delle quali deve poi essere analizzata in termini di illuminazione ed eventualmente di colore; si può effettuare questa analisi o tramite un sensore associato ad ogni areola oppure, se il tempo assegnato per l'analisi lo consente, utilizzando un unico sensore per esplorare in sequenza le varie areole elementari, così da ottenere un'informazione di tipo sequenziale.

In teoria non esistono limitazioni al numero di areole elementari in cui è possibile decomporre l'immagine. Si deve però tener presente che un'elevata suddivisione, pur migliorando la definizione dell'immagine, comporta un aumento nella onerosità del sistema di ripresa televisiva e di quello di trasmissione, come sarà meglio illustrato in seguito; inoltre, se una suddivisione troppo limitata porta a immagini grossolane prive di dettagli e frastagliate, non si ha alcun vantaggio ad effettuare una suddivisione più fine di quella che viene realizzata dall'occhio umano.

Per ricomporre l'immagine e ottenerne la sintesi occorre procedere inversamente: considerare l'immagine da riprodurre come suddivisa in aree elementari e ad ognuna di queste, in base all'informazione ottenuta dai sensori di analisi, attribuire una luminosità ed eventualmente un colore uguali a quelli dell'immagine di partenza. Tra l'apparecchiatura di analisi e quella di sintesi è interposto tutto il sistema di trasmissione dell'informazione che può essere realizzato in differenti modi.

Come abbiamo già detto, l'analisi dell'immagine può essere effettuata secondo due modalità: la prima è basata sull'analisi contemporanea di tutte le aree elementari con un numero di sensori pari a quello delle aree (sistema simultaneo, o integrale, di trasmissione), la seconda sull'analisi sequenziale delle aree a mezzo di un singolo sensore, operazione che in linguaggio tecnico viene detta ‛scansione dell'immagine' (sistema sequenziale).

La realizzazione di un sistema di tipo integrale comporta il superamento di difficoltà pratiche tali che la scelta del sistema sequenziale, molto più semplice, è praticamente obbligata.

Infatti, a prescindere dalle difficoltà di realizzare il sistema di sensori, per procedere alla trasmissione simultanea delle informazioni occorrerebbe un numero di canali pari al numero dei sensori e quindi al numero delle aree elementari, che è molto elevato anche per immagini di modesta qualità. In altri termini, per trasmettere un'immagine occorrerebbero diverse migliaia di conduttori, mentre per una trasmissione via radio occorrerebbero diverse migliaia di emittenti. Ogni terminazione del sistema di trasmissione dovrebbe poi essere connessa a un'area elementare dell'apparato di riproduzione. Nell'effettuare l'interconnessione con le aree di sintesi si dovrebbe infine tener conto della posizione che ogni area elementare di analisi ha nei riguardi dell'immagine da trasmettere, facendole corrispondere un identico posizionamento sull'immagine di sintesi.

È evidente l'onerosità e l'improbabilità di successo del sistema di trasmissione simultanea. Attualmente esiste solo un sistema che opera in forma integrale, ed è il sistema di trasmissione di immagini attraverso cavi a fibre ottiche orientate. Ma in tale sistema non esistono sensori, le linee di trasmissione sono fibre ottiche, cioè veri e propri conduttori di luce, e non esiste pertanto neppure il sistema di sintesi. Le distanze di trasmissione sono dell'ordine di qualche metro e l'impiego è limitato all'endoscopia in medicina o in altri campi.

La normale trasmissione televisiva viene invece effettuata secondo la tecnica sequenziale. Prima di procedere alla descrizione sommaria di un sistema di trasmissione di questo tipo è però opportuno fare alcune premesse.

Il rilevante numero di canali necessari per una trasmissione integrale di immagini televisive sta a dimostrare l'elevata quantità di informazione che deve essere trasmessa per consentire la ricostruzione dell'immagine. Supponendo di voler trasmettere in successione 25 immagini al secondo, l'informazione attinente ad ogni immagine deve essere trasmessa entro un venticinquesimo di secondo. In un sistema a trasmissione integrale ogni canale collegato a un'area elementare deve essere in grado di trasmettere una quantità di informazioni relativamente modesta, deve infatti informare solo sull'illuminazione relativa alla sua area elementare, rinnovando l'indicazione 25 volte al secondo, in conseguenza del cambiamento di immagine. Occorrono però moltissimi canali per trasmettere tutte le informazioni dell'immagine nel suo insieme.

In un sistema di trasmissione sequenziale, invece, si dispone di un solo canale che deve avere un'alta capacità di trasmissione, dato che deve trasmettere l'informazione sull'illuminazione di tutte le aree elementari, cambiando sequenzialmente l'indicazione per riferire su ognuna di esse. Questa analisi deve avvenire entro un venticinquesimo di secondo per completare, entro quel tempo, la trasmissione dell'intera immagine e consentire la trasmissione della successiva con nuove indicazioni. In altri termini, se le aree elementari sono n, il canale deve fornire n indicazioni entro un venticinquesimo di secondo, ovvero 25n indicazioni in un secondo. A questa elevata frequenza di trasmissione delle informazioni corrispondono oneri non indifferenti: per esempio al posto di semplici conduttori bisognerà utilizzare dei cavi coassiali, mentre il sistema radiotrasmittente occuperà un vasto intervallo nello spettro delle radiofrequenze.

Va inoltre tenuto presente che in un sistema integrale di trasmissione è necessario fare attenzione a che ogni area elementare di analisi sia collegata esattamente con l'area elementare di sintesi che ha la corrispondente posizione sull'immagine.

In un sistema di trasmissione sequenziale, per contro, al posto di ricezione arriva una sequenza di segnali che si riferiscono al succedersi delle aree elementari prese via via in esame. Se non sono presi opportuni accorgimenti, il sistema ricevente ignora a quale area di immagine deve attribuire l'informazione che sta ricevendo; può semmai essere a conoscenza dell'ordine in cui la scansione dell'immagine avviene, ma non può riferire l'informazione a punti precisi dello schermo di riproduzione. Occorre quindi introdurre un'informazione supplementare da cui sia possibile individuare, in qualche modo, quale sia l'area elementare che viene esaminata. A quest'informazione provvedono dei segnali detti di ‛sincronismo', che vengono aggiunti ai segnali relativi all'informazione delle aree elementari, detti ‛segnali video'.

Un'altra caratteristica che è comune ai due tipi di trasmissione, integrale e sequenziale, dell'immagine, e anche alla cinematografia, è la minima frequenza di ripetizione delle immagini che deve essere adottata. Si è già notato che per una corretta sensazione di movimento le immagini relative a istanti successivi debbono essere proiettate sulla retina con una certa rapidità di successione, dettata in parte dal tempo di ritenzione (persistenza) di ogni singola immagine. I primi lavori svolti nel campo della cinematografia hanno dimostrato che una cadenza di 16 immagini al secondo può essere sufficiente a conservare il senso di continuità del moto: valori minori di questa cadenza darebbero la sensazione di un movimento a scatti. Mentre la cinematografia a passo ridotto mantiene la cadenza di 16 immagini al secondo, la cinematografia professionale adotta invece uno standard di 24 immagini al secondo. Nella scelta della frequenza di immagine per la televisione valgono considerazioni analoghe con alcune aggiunte.

Gli apparecchi televisivi vengono alimentati dalla rete elettrica che quasi sempre fornisce corrente alternata; poiché spesso possono verificarsi difetti nell'immagine in conseguenza di imperfezioni nei sistemi di alimentazione dei televisori, in particolare in quelli in uso all'epoca della scelta degli standard, si è voluto adottare una frequenza di immagine che corrispondesse alla metà della frequenza di rete. Con questa scelta i difetti, spesso consistenti in lievi distorsioni o in fasce leggermente più scure, restano fissi sull'immagine e si evita così un effetto particolarmente fastidioso di ondeggiamento o di fasce scure che scorrono verticalmente sull'immagine. Per questa ragione in America, essendo la rete elettrica a 60 Hz, è stata adottata una frequenza di 30 immagini complete al secondo, mentre in Europa lo standard prevede una frequenza di 25 immagini complete al secondo essendo la rete a 50 Hz.

Un altro aspetto importante per la determinazione della qualità dell'immagine, che ha connessione con la frequenza di ripetizione, è lo ‛sfarfallio' d'immagine. Infatti, anche assicurando la continuità del moto, l'immagine può avere uno sfarfallio (luminoso) particolarmente fastidioso, dipendente tra l'altro dalla sua luminosità. Per eliminare lo sfarfallio occorre una frequenza di ripetizione dell'immagine più elevata di quella strettamente necessaria per la continuità di moto. Nella cinematografia, per evitare un inutile spreco di pellicola, invece di aumentare il numero di fotogrammi, si usa proiettare due volte lo stesso fotogramma; così con il sistema a 24 fotogrammi al secondo le immagini vengono proiettate sullo schermo per 48 volte al secondo con la scomparsa dello sfarfallio. Per ciò che riguarda la televisione, il problema non è risolubile trasmettendo due volte la stessa immagine; infatti tanto varrebbe trasmettere le immagini a una frequenza più elevata con un raddoppio della quantità di informazione da trasmettere. Inoltre, data la più elevata luminosità dell'immagine televisiva rispetto a quella cinematografica, l'adozione di una frequenza di 48 immagini non garantirebbe la scomparsa dello sfarfallio. Questo problema è stato risolto con la trasmissione interallacciata delle immagini, di cui si parlerà in sede di descrizione dei dettagli tecnici della trasmissione dell'informazione televisiva (v. cap. 4, È c).

Concludiamo questo esame dei principi che sono alla base della trasmissione televisiva e delle relative problematiche con un'ultima considerazione. La miglior forma di trasmissione di informazioni che l'uomo abbia realizzato è ancora quella mediante segnali di natura elettrica, sia che si utilizzino onde elettromagnetiche sia che si utilizzino sistemi di conduttori. Questa regola a tutt'oggi ‛vale anche per la televisione: occorre quindi trasformare l'informazione luminosa, ed eventualmente quella di sincronismo, in segnali di tipo elettrico, agevolmente trasferibili dal posto di trasmissione a quello di ricezione, e quindi, sulla base dell'informazione fornita da questi segnali, provvedere alla ricostruzione dell'informazione luminosa per riottenere l'immagine. La trasduzione del segnale luminoso in segnale elettrico viene effettuata da dispositivi che, nella forma più elementare, prendono il nome di cellule fotoelettriche. Una cellula fotoelettrica produce pertanto ai suoi terminali un segnale elettrico di ampiezza proporzionale al flusso luminoso che la investe.

Dagli argomenti esposti fin qui risulta che per la realizzazione di un sistema di trasmissione televisiva occorre procedere a delle scelte che debbono tener conto da un lato della qualità dell'immagine, che deve risultare accettabile, e dall'altro della complessità e dispendiosità degli impianti. L'individuazione del miglior compromesso tra questi due aspetti contrastanti porta all'adozione dei vari standard televisivi, che devono tener conto della distanza presunta a cui l'osservatore si colloca dallo schermo del ricevitore, per fare in modo che a tale distanza la trama dell'immagine non sia visibile.

3. Storia della televisione.

La storia della televisione è ricca di idee e di tentativi interessanti; molti ricercatori si sono dedicati alla ricerca di soluzioni, in alcuni casi bizzarre, per la trasmissione delle immagini a distanza.

Le prime ideazioni sono più antiche di quanto comunemente si creda e risalgono a più di un secolo fa. Ovviamente i primi tentativi di trasmissione non poterono che riguardare le immagini fisse; del resto risalgono a un'epoca anteriore perfino alla cinematografia, intesa come proiezione di immagini su pellicola di celluloide. A. Bain, l'abate Caselli, il Bakewell svilupparono idee, dando anche pratiche dimostrazioni, per la trasmissione di disegni e immagini fisse.

Il primo a proporre una soluzione per la trasmissione di immagini mobili fu l'americano G. R. Carey intorno al 1875 (v. fig. 1). Va rilevato il fatto che gli studi e le prime realizzazioni televisive sono antecedenti all'invenzione della radio, anche se la televisione è entrata nell'uso pratico molti anni dopo di essa. In realtà è stato il nascere della radiotecnica, e il conseguente sviluppo dell'elettronica, a dare un forte impulso all'evolversi della tecnica televisiva. L'idea del Carey tendeva alla costruzione di un occhio umano artificiale, che conservasse il principio di trasmissione integrale dell'immagine. A parte la difficoltà di realizzazione dell'elemento di ripresa, e l'impossibilità di funzionamento, la proposta era inattuabile proprio per il tipo di trasmissione prescelto che, come abbiamo già accennato, imponeva un numero enorme di canali di trasmissione.

Verso il 1879 si intravide la possibilità di ricorrere all'uso del selenio per realizzare la cellula fotoelettrica. I primi tentativi di impiego di questo efficace dispositivo, capace di trasformare un segnale luminoso in un segnale elettrico, furono in molti casi grossolani e limitati a immagini fisse. Per esempio in uno di questi tentativi era prevista nell'apparato di riproduzione una matita posta in movimento sincrono con quello di una cellula fotoelettrica situata al posto di trasmissione per l'esplorazione dell'immagine. Il segnale elettrico prodotto dalla fotocellula, trasmesso a mezzo di conduttori al posto di ricezione, veniva trasformato da un opportuno meccanismo in una maggiore o minore pressione nella matita assicurando i chiaroscuri dell'immagine. I risultati di un simile procedimento sono facilmente immaginabili. Va tra l'altro sottolineato che all'epoca non esistevano i tubi elettronici capaci di amplificare i segnali elettrici, per cui il già debole segnale prodotto dalla cellula, fortemente attenuato da una sia pur breve distanza di trasmissione, non avrebbe potuto in nessun caso azionare la matita. Ciò non toglie, almeno dal lato storico, che queste proposte conservino un loro valore, sia perché il sistema prescelto era quello sequenziale sia per la proposta di impiego della cellula fotoelettrica.

Fu lo stesso ricercatore, il Senlecq, a proporre successivamente un'altra soluzione, basata, questa volta, sull'analisi integrale dell'immagine. In questo caso le cellule fotoelettriche erano in numero rilevante, realizzate su un'unica piastra di rame e connesse ognuna al posto ricevente, che era costituito da un'altra piastra in cui erano allogati dei fili di platino aventi la stessa disposizione delle fotocellule sulla piastra trasmittente. Questi fili avrebbero dovuto divenire più o meno luminosi a seconda dell'intensità della corrente inviata dalle rispettive fotocellule. Questa soluzione, pur inattuabile per l'insufficiente erogazione energetica delle fotocellule, ha nel dispositivo di ripresa qualcosa che anticipa il fotomosaico dei moderni tubi da ripresa. Successivamente il Senlecq rinunciò al sistema di trasmissione in forma integrale e concepì, anticipando un altro aspetto dei tubi da ripresa moderni, un commutatore rotante che provvedeva a inserire su un'unica linea di trasmissione le varie cellule in successione. Al posto di ricezione, con analoga successione, un altro commutatore inseriva i vari conduttori di platino.

Allo stesso periodo risalgono i tentativi di M. Le Blanc e degli inglesi Ayrton e Perry, che portarono a dispositivi che funzionavano, seppure rudimentalmente.

Nel 1880 l'apparire di una novità tecnica rivoluzionaria, la lampada elettrica a incandescenza, dovuta come noto a Edison, portò a nuove proposte anche nel campo televisivo. Alcuni ricercatori pensarono di aver trovato la soluzione per il sistema di riproduzione, ma l'inerzia termica nella risposta poteva consentire solo la trasmissione di immagini fisse e, come per la proposta del Senlecq, la potenza richiesta non poteva essere fornita dalle fotocellule.

Nonostante il fervore di iniziative, solo nel 1884 apparve un sistema in grado di funzionare e fu quello proposto dal tedesco P. Nipkow. Il sistema di scansione di immagine fu allora perfettamente individuato e un sistema in parte analogo poteva essere usato anche per la sintesi delle immagini; il trasduttore luce-segnale elettrico rimaneva sempre la valida, pur se limitata, fotocellula.

Il sistema di analisi era costituito da un disco rotante su cui erano incisi dei fori disposti a spirale (v. fig. 2). L'immagine da trasmettere veniva proiettata sulla fotocellula con l'interposizione di parte del disco (v. fig. 3). Poiché ogni foro del disco descriveva una traiettoria sul campo di immagine, il passaggio della luce lungo quella linea per i vari punti in successione determinava la scansione del quadro secondo un arco di cerchio. In conseguenza della disposizione a spirale dei fori ogni linea di scansione veniva a trovarsi spostata verticalmente. La successione delle linee corrispondenti a tutti i fori del disco determinava la scansione dell'intera immagine. Completato il giro del disco, quando il primo foro della spirale tornava nel campo dell'immagine, aveva inizio una nuova scansione.

Al posto ricevente si trovava un altro disco con un insieme di fori del tutto simile a quello di trasmissione e rotante in sincronismo con esso. L'intensità della luce proveniente da un'ordinaria sorgente luminosa veniva modulata facendola passare attraverso un ingegnoso dispositivo elettroottico controllato dal segnale proveniente dalle fotocellule di analisi. I raggi luminosi raggiungevano l'occhio dell'osservatore passando attraverso i fori del disco posto in rotazione. L'effetto di scansione dei fori e la contemporanea modulazione dell'intensità del fascio luminoso davano quindi luogo alla ricostruzione dell'immagine.

Numerosi ricercatori proposero nuovi sistemi e varie soluzioni ai problemi che via via emergevano. Fra coloro che introdussero scoperte e perfezionamenti che dovevano poi rivelarsi dei progressi fondamentali per la tecnica della televisione vanno ricordati: Sutton, per gli studi sul sincronismo tra sintesi e analisi, Kerr, per la realizzazione della cella per la modulazione dell'intensità luminosa di un fascio di luce, e ancora L. Weiller e M. Brilbuin.

Il componente fondamentale per la trasmissione delle immagini doveva però realizzarsi con il tubo di Braun (v. fig. 4) che, proposto nell'impiego televisivo da B. Rosing nel 1907, rivoluzionò progetti e sistemi studiati fino allora e fu utilizzato dapprima per la sintesi dell'immagine e in seguito anche nei dispositivi di analisi. I moderni tubi da ripresa e il cinescopio non sono altro che derivati del tubo a raggi catodici introdotto da F. Braun.

Nello stesso tempo si ebbe un'altra grande scoperta, la radio, il cui sviluppo assicurò il supporto congeniale per la trasmissione dell'informazione televisiva; infine, con l'invenzione del triodo, primogenito dei tubi elettronici, iniziò la tecnica elettronica di generazione, amplificazione e modificazione della forma d'onda dei segnali. La televisione usciva così dalle modeste sperimentazioni dei ricercatori per interessare l'industria, che impegnò cospicui mezzi nella ricerca.

Altri ricercatori contribuirono all'evolversi della tecnica della televisione: fra essi si ricordano K. Zworvkin, che studiò validi dispositivi di ripresa, tra cui l'‛iconoscopio', e J. L. Baird che, oltre ad effettuare valide prove di trasmissione, condusse esperimenti di televisione a colori, di trasmissione stereoscopica, di trasmissione di immagini a raggi infrarossi. Le immagini venivano suddivise in aree elementari sempre più numerose, portando a ricostruzioni di alta definizione. Altri studi furono condotti sui migliori standard di trasmissione, spesso purtroppo con risultati contrastanti che hanno impedito un'unificazione internazionale. Infine sono state messe a punto le metodologie per una migliore utilizzazione dei mezzi di trasmissione quali i cavi e le radioonde.

4. La tecnica televisiva.

a) Caratteristiche della trama di immagine.

Nell'esaminare i principi di base della trasmissione televisiva, abbiamo constatato l'impossibilità di procedere a una trasmissione integrale dell'immagine, principalmente per l'elevato numero di canali di trasmissione richiesto. Pertanto allo stato attuale l'unica soluzione é quella della trasmissione sequenziale dell'informazione relativa a ogni singola area elementare.

Già nei primi sistemi di trasmissione televisiva l'informazione sequenziale veniva ottenuta scandendo in successione le aree elementari in cui era suddivisa l'immagine, per mezzo di un sensore, che era allora rappresentato da una cellula fotoelettrica (analisi). La scansione di immagine viene tuttora effettuata salvo applicazioni particolari - per righe: il sensore esplora l'immagine per mezzo di un idoneo sistema lungo una riga quasi orizzontale. Terminata una linea, il sensore passa a scandirne un'altra parallela alla prima. Operando in questo modo si esamina tutto il campo di immagine. Completata la scansione dell'intera immagine il procedimento inizia nuovamente per la trasmissione dell'immagine successiva.

Per tutte le trasmissioni di diffusione televisiva, è stato stabilito come norma che la scansione parta dall'angolo superiore sinistro dell'immagine e proceda lungo una riga verso destra (v. fig. 5); raggiunto il lato destro, il dispositivo scandente ritorna alla sinistra dell'immagine e inizia nuovamente la scansione verso destra partendo da un punto leggermente al di sotto di quello della riga precedente. Procedendo in questo modo, quando si è giunti all'angolo inferiore destro la scansione dell'immagine si considera ultimata.

b) Numero delle linee di scansione.

La scelta del numero di linee necessario alla scansione dell'immagine è legata al potere risolutivo dell'occhio e alla distanza di visione. Un basso numero di righe rende la trama chiaramente visibile, a meno di non adottare una distanza notevole tra spettatore e schermo che rende l'occhio incapace di percepire i dettagli; inoltre, il sistema a poche righe spesso non può dare un'immagine dettagliata per il numero ridotto di aree elementari.

Da valutazioni teoriche e pratiche risulta che occorre rimanere al di sopra di 400 linee per rendere l'immagine accettabile a un osservatore medio. Non è però conveniente superare di molto questo numero per ragioni economiche. Nello standard europeo si adottano 625 righe, mentre in quello americano si è assunto un numero di righe pari a 525.

c) Scansione interallacciata.

Abbiamo già detto che la frequenza di ripetizione dell'immagine dipende da problemi di continuità di moto e di sfarfallio. Mentre una frequenza pari a 24 immagini al secondo o leggermente superiore assicura la continuità del moto, per evitare lo sfarfallio occorre almeno raddoppiare questa frequenza. Avere una frequenza doppia di immagine significa però raddoppiare anche l'informazione da trasmettere in un secondo, con conseguenze economiche e pratiche del tutto inaccettabili.

La soluzione è stata trovata effettuando la trasmissione di ogni intera immagine in due tempi: la prima volta con un numero di righe pari alla metà di quello totale e la seconda volta con l'altra metà, provvedendo a che le due trame di scansione parziale si alternino senza sovrapporsi, e cioè interallacciandosi (v. fig. 6). Così, nello standard europeo per trasmettere un'immagine si esegue una prima scansione con 312,5 righe ripartite su tutta l'altezza dell'immagine e si procede poi a una seconda scansione con altre 312,5 righe, sempre ripartite su tutta l'immagine, ma sfalsate rispetto alle prime in modo che ogni riga della nuova scansione si collochi tra due righe di quella precedente. A processo ultimato, l'immagine sarà stata esaminata con 625 righe. Così operando vengono trasmesse 25 immagini complete al secondo, ma il numero di sottoimmagini, detti ‛campi' o ‛trame', risulta doppio e cioè 50 al secondo. Questo numero è sufficiente a minimizzare l'effetto di sfarfallio. L'immagine completa viene indicata con il termine di ‛quadro'.

Lo standard europeo adotta 25 quadri al secondo, pari a 50 campi al secondo, poiché il numero di trame che compongono un'immagine è pari a 2. Lo standard americano adotta invece il valore di 30 quadri al secondo pari a 60 trame al secondo, essendo sempre 2 le trame per quadro.

Volendo fare un raffronto tra lo standard europeo e quello americano, si può concludere che il primo è inferiore nei riguardi dello sfarfallio, mentre, adottando un numero di linee maggiore, fornisce un'immagine più definita e con trama meno vistosa.

d) I dispositivi da ripresa.

Nella televisione moderna non viene più usata la singola fotocellula per l'analisi dell'immagine, perché il meccanismo per la scansione risulterebbe piuttosto complicato, scarsamente affidabile e ricco di inconvenienti. Oggi si preferisce effettuare la scansione di immagine per via elettronica ricorrendo ai tubi da ripresa.

Storicamente il primo tubo da ripresa fu l'iconoscopio (v. fig. 7) che è attualmente in disuso. Altri tubi elettronici da ripresa, quali l'orthicon (v. anche elettronica), l'image-orthicon, il plumbicon e il vidicon presentano caratteristiche di qualità, sensibilità, semplicità e costo più favorevoli. Recentemente, per la formazione di immagini, sono stati sviluppati dispositivi allo stato solido particolarmente sensibili e compatti.

L'iconoscopio è comunque il classico tubo da ripresa e, per la sua semplicità, meglio si presta in questa sede a chiarire i principi su cui si basa la moderna ripresa televisiva. La funzione dell'iconoscopio è quella di convertire un'immagine formata con mezzi ottici e focalizzata su una particolare superficie all'interno del tubo in un'equivalente immagine elettronica.

L'immagine che si forma in una telecamera non è permanente. Essa, per mezzo dell'obiettivo, viene proiettata su una superficie delle dimensioni di circa 2,5×2,5 cm2 costituita da un mosaico di finissimi granuli di ossido d'argento e di cesio su un substrato isolante; ogni granulo può essere assimilato a una microscopica fotocellula annessa a un'area elementare. Per effetto fotoelettrico i granuli assumono una carica elettrica proporzionale all'intensità della radiazione luminosa incidente. Le cariche di ciascun elemento della superficie vengono rilevate da un pennello elettronico, originato da un sistema a raggi catodici, che ne ricava un segnale elettrico per la trasmissione a distanza e contemporaneamente prepara la superficie per ricevere l'immagine successiva. Ciò si ottiene deflettendo con campi magnetici la traiettoria del pennello elettronico in modo che esso scandisca il quadro secondo linee percorse da sinistra a destra e, linea dopo linea, dall'alto verso il basso, con una scansione di tipo interallacciato.

Nell'intervallo di tempo in cui il pennello elettronico, dopo aver terminato la scansione di una linea, ritorna da destra a sinistra per iniziare la scansione di una nuova linea, il segnale viene interdetto (periodo di estinzione) e sostituito da un impulso che sincronizza la scansione nell'iconoscopio con la scansione nell'apparecchio ricevente, avvertendo quest'ultimo dell'inizio di ciascuna linea e di ciascun campo. Il periodo di estinzione è pari circa al 20% del periodo di scansione, e pertanto non tutto il tempo di trasmissione è utilizzato per il segnale video. Anche nel periodo in cui il pennello elettronico, terminata la scansione di un campo, ritorna verso l'alto per iniziare la scansione di un nuovo campo, il segnale video viene interdetto e sostituito da impulsi di sincronizzazione, per un tempo corrispondente a quello della scansione di un numero di linee tra 18 e 25, in relazione al particolare standard. La fig. 8 illustra la sequenza temporale del segnale televisivo con particolare riferimento ai segnali di sincronismo di trama.

Si può ragionevolmente ritenere che la fase di ripresa descritta, pur con opportune varianti, sia comune a quasi tutte le applicazioni della televisione. Naturalmente certe scelte, come il numero di righe per quadro, il numero di quadri al secondo e l'adozione o meno di quadri interallacciati, dipenderanno dalla particolare applicazione e anche dallo standard prescelto; spesso un apparato costruito per uno standard non può funzionare per un altro senza l'interposizione di dispositivi di conversione.

Sfortunatamente nello sviluppo della tecnologia televisiva non si è curato sufficientemente il criterio della unificazione degli standard, cosicché i sistemi attualmente in uso nel mondo sono alquanto diversi l'uno dall'altro. Oltre alle differenze fondamentali tra i sistemi, che abbiamo già illustrato, altri parametri del segnale televisivo possono essere diversi tra standard e standard, e quindi tra paese e paese, cosicché l'interconnessione mondiale delle reti televisive richiede complicate operazioni di conversione di standard che si traducono inevitabilmente in una degradazione della qualità dell'immagine.

Come si è detto, il numero di righe di scansione per quadro viene scelto in modo che il dettaglio verticale dell'immagine sia rappresentato adeguatamente e che alla normale distanza di visualizzazione l'occhio umano non percepisca apprezzabilmente la struttura rigata dell'immagine riprodotta. È evidente che considerazioni simili si applicano al dettaglio orizzontale dell'immagine; pertanto il sistema elettrico di scansione, trasmissione e visualizzazione dovrà essere in grado di riprodurre più di 600 elementi distinti di immagine lungo una riga del segnale televisivo, la cui durata è di 1/(625×25)=1/15.625 di secondo. Questo requisito si traduce in una banda di frequenza di circa 5 MHz, corrispondente, per esempio, a quella necessaria per trasmettere oltre 1.000 conversazioni telefoniche simultanee.

e) La televisione a colori.

La differenza tra televisione a colori e televisione monocroma (detta anche in bianco e nero) risiede principalmente nei sistemi di ripresa e di visualizzazione. Mentre la telecamera monocroma analizza soltanto la brillanza dell'immagine, la telecamera a colori contiene un complesso di filtri ottici e di tubi da ripresa (v. fig. 9) che analizzano le componenti cromatiche fondamentali in rosso, azzurro e verde dell'immagine. In un sistema televisivo a colori ‛compatibile' (nel senso che permetta la ricezione monocroma di un segnale televisivo a colori da parte di un ricevitore in bianco e nero e la ricezione, ovviamente in bianco e nero, di un segnale monocromo da parte di un televisore a colori) i segnali elettrici corrispondenti alle componenti cr0matiche fondamentali vengono tra loro combinati per ottenere un segnale, detto di luminanza, corrispondente al segnale ottenibile da una telecamera monocroma e due segnali secondari di crominanza.

Il segnale di luminanza viene trasmesso come nella televisione monocroma, mentre i segnali di crominanza opportunamente trattati vengono aggiunti al segnale di luminanza senza che ne derivi una maggiore occupazione di banda, sfruttando particolari caratteristiche spettrali del segnale televisivo e proprietà della percezione visiva dell'occhio umano. Nel televisore monocromo viene sfruttata soltanto la luminanza, mentre i segnali di crominanza sovrapposti si comportano come un disturbo scarsamente percepibile. Il televisore a colori invece decodifica i segnali di luminanza e di crominanza riottenendo le componenti primarie in rosso, azzurro e verde; nella ricezione di un segnale monocromo si opera una composizione di questo con le tre componenti in proporzioni adatte a produrre un effetto visivo di luce bianca.

Anche per quanto riguarda i sistemi televisivi a colori si lamenta l'assenza di uno standard comune. In particolare, l'area dello standard a 525 righe e 30 quadri adotta il sistema americano NTSC, mentre l'area europea è divisa tra il sistema tedesco PAL (adottato dall'Europa occidentale con l'eccezione della Francia) e il sistema francese SECAM (Francia, Unione Sovietica e alcuni paesi dell'Europa orientale).

f) Successivi trattamenti elettronici del segnale video.

Il segnale elettrico corrispondente all'immagine ripresa può subire varie manipolazioni, sia nel centro di produzione, sia lungo la catena di trasmissione e di distribuzione, sia nella fase ultima di ricostruzione dell'informazione visiva presso l'utilizzatore. Ciò avviene in particolare per la televisione destinata alla diffusione circolare (v. cap. 5, È a).

Presso il centro di produzione, oltre alla ripresa delle scene in studio, viene effettuata la regia dei programmi che possono comprendere scene riprese da telecamere diverse, anche esterne, pezzi registrati su supporti magnetici o su pellicola cinematografica, programmi provenienti da altri centri di produzione, ecc. Vengono inoltre effettuate la sincronizzazione e l'eventuale conversione di standard di segnali provenienti da altre reti televisive e la generazione diretta di segnali elettrici per titoli ed effetti speciali o per immagini di prova di alta qualità (per es. monoscopio).

g) La trasmissione dei segnali televisivi.

Il segnale che proviene dal sistema di ripresa, costituito dalla telecamera contenente il tubo da ripresa e dai dispositivi per la generazione dei segnali di sincronismo, è già sufficiente per la ricostruzione dell'immagine presso il posto ricevente. In pratica però occorre procedere alla sua trasmissione, spesso a grande distanza. Dal supporto utilizzato per questa trasmissione e dall'utilizzazione dell'informazione che si intende fare, derivano alcune delle denominazioni che sono state date alle varie applicazioni di trasmissione televisiva.

Il segnale televisivo composito è costituito dall'informazione video a cui è aggiunta quella di sincronismo; contemporaneamente, ove necessario, si può avere il segnale audio.

Indipendentemente dall'uso che si vuole fare dell'informazione televisiva, sia cioè per una diffusione circolare che per altre applicazioni, due sono i supporti possibili per la sua trasmissione: il primo basato sull'uso di conduttori, il secondo sulla propagazione delle onde elettromagnetiche nello spazio.

Si è visto brevemente che il campo delle frequenze in gioco nell'informazione video si estende da frequenze bassissime fino a frequenze dell'ordine di 5 MHz, come avviene nel caso dello standard europeo (v. anche informazione: Trattamento e trasmissione dell'informazione). Questa ampia gamma di frequenze da trasmettere comporta un onere notevole per ciascuna delle due soluzioni possibili. Non si può infatti pensare di trasmettere un segnale di 5 MHz attraverso un qualsiasi conduttore; occorre fare ricorso a dei cavi coassiali, così detti perché costituiti da due conduttori uno concentrico all'altro con isolamento a bassa perdita tra i due, di elevata qualità e quindi molto costosi. Nella trasmissione a distanza, il segnale si attenua lungo il cavo coassiale, sicché occorre rinforzarlo amplificandolo a distanze opportune in modo che non si degradi troppo.

I ‛videoamplificatori' debbono amplificare tutta la banda di frequenza menzionata e risultano onerosi, come anche il cavo, se utilizzati da un solo canale televisivo. La trasmissione di segnali video direttamente via cavo non viene effettuata che per distanze relativamente brevi come quelle che si riscontrano in sistemi a circuito chiuso. La trasmissione via cavo a lunga distanza di più canali viene invece effettuata a partire da un segnale portante di frequenza elevata, con valore diverso da canale a canale televisivo, modulato dall'informazione video, analogamente a quanto si fa nella radiotrasmissione. In sede di ricezione, volendo ricevere l'informazione relativa a un particolare canale televisivo, basta filtrare il solo segnale relativo alla sua frequenza portante e attraverso un procedimento di demodulazione ricavare l'informazione video originaria. In questo modo utilizzando diverse frequenze portanti il sistema cavo-amplificatori può essere utilizzato per più canali televisivi, magari in unione a canali di tipo telefonico, con un notevole risparmio economico. Esistono reti pubbliche e private di cavi per la trasmissione di immagini televisive e per la diffusione circolare.

Per la trasmissione attraverso onde elettromagnetiche spaziali si procede in maniera simile. Presso ogni stazione di trasmissione un segnale portante a frequenza elevata viene modulato dal segnale video. La portante modulata, amplificata a un'adeguata potenza, viene avviata all'antenna trasmittente che la irradia sotto forma di onda elettromagnetica nello spazio. Presso il posto di ricezione l'onda elettromagnetica viene captata da un'antenna ricevente. Dopo processi di amplificazione, in analogia a quanto avviene per la trasmissione via cavo, il segnale viene demodulato; i segnali di sincronismo vengono separati da quelli video e utilizzati per il controllo della scansione, mentre il segnale video controlla il flusso luminoso delle aree elementari dell'immagine.

Le antenne utilizzate per la trasmissione possono avere caratteristica di radiazione circolare, cioé irradiare in uguale misura su tutte le direzioni, oppure possono essere direttive e irradiare in una sola direzione, in relazione all'uso televisivo che si intende fare. Anche nella telediffusione si usano antenne parzialmente direttive per rinforzare il segnale verso aggregati urbani più distanti o in zone di ombra. Al riguardo occorre osservare che l'ampia banda di frequenze interessata dall'informazione televisiva impone valori piuttosto elevati della frequenza dell'onda elettromagnetica portante, in genere maggiori di 100 MHz. Le onde a frequenza elevata hanno un comportamento molto prossimo a quello delle onde elettromagnetiche della banda ottica e pertanto si comportano come la luce; non hanno portata superiore a quella ottica e ostacoli interposti, come colline, fabbricati, ecc., impongono serie limitazioni alla loro propagazione. Per migliorare la ricezione le antenne riceventi sono in genere di tipo direttivo per rinforzare esclusivamente il segnale proveniente dalla stazione trasmittente e per ridurre quei segnali provenienti da altre direzioni che causerebbero disturbi.

Un raffronto tra cavo e onde elettromagnetiche come mezzi di trasmissione è possibile solo tenendo presente la particolare utilizzazione a cui è destinata l'informazione televisiva. Su un piano tecnico sono da tenere presenti le seguenti considerazioni che oggi, col proliferare delle emittenti, rivestono particolare importanza.

Si è già visto che l'intervallo di frequenza interessato dal segnale televisivo si estende fino a 5 MHz. La modulazione di un segnale portante da trasmettere sia per cavo sia via radio genera delle altre frequenze che occorre conservare ai fini di una corretta trasmissione dell'informazione. Occorre pertanto trasmettere e ricevere non la sola frequenza portante ma tutta la banda di frequenze risultanti. Ricorrendo a particolari accorgimenti, ad esempio alla cosiddetta soppressione di una banda laterale, si può ridurre l'estensione di questo insieme di frequenze. Anche così l'ampiezza di banda da trasmettere risulta notevole; in particolare per lo standard europeo essa si estende per 7 MHz comprendendo anche la portante per il suono.

Se si tiene conto che l'intero spettro delle onde elettromagnetiche utilizzabile per la diffusione circolare, senza ricorrere ad apparati molto complessi, si estende fino a una frequenza massima di circa 1.000 MHz, si può constatare che il numero di canali televisivi che possono essere trasmessi non è molto grande. Oltre tutto si deve anche provvedere a lasciare uno spazio libero tra canale e canale per evitare interferenze e, cosa più importante, in questo spettro debbono trovare posto tutte le altre trasmissioni radioelettriche, come quelle per le comunicazioni radiotelefoniche, radiotelegrafiche e di radiodiffusione.

Si deve comunque ricordare che, in conseguenza della portata ottica delle onde ad altissima frequenza, sullo stesso canale possono operare più emittenti purché sufficientemente distanti tra loro.

Adottando invece i sistemi con cavi si prescinde dai problemi di sovrapposizione di segnali della stessa frequenza e si può operare in un sistema isolato moltiplicabile a volontà.

h) Il sistema di ricezione televisiva.

Il segnale contenente l'informazione televisiva, come abbiamo visto, può arrivare al posto di ricezione direttamente nella forma video, se la distanza dal posto di trasmissione è breve; altrimenti, e questo è il caso più frequente, il segnale è costituito dalle portanti modulate. All'apparato in ogni caso giunge un cavo che proviene dall'antenna, se la trasmissione è via radio, o dalla rete di distribuzione, se la trasmissione è per cavo.

Generalmente il segnale è di piccola entità (dell'ordine di 100 μV) e occorre procedere a una sua amplificazione. Spesso ai morsetti del ricevitore giungono contemporaneamente i segnali relativi a più canali, ognuno contraddistinto da una diversa frequenza portante. Nel ricevitore è perciò presente un sistema di filtri per consentire il passaggio dei segnali appartenenti al solo canale desiderato. In linea di principio questa parte del sistema di ricezione è simile a quella di un normale ricevitore per radiofonia di tipo supereterodina, idoneo alla ricezione di segnali modulati in ampiezza (v. fig. 10). Il segnale può a questo punto essere demodulato per ricavare l'informazione video originaria con i relativi segnali di sincronismo. In questa sede è possibile anche ricavare il segnale audio che è in genere ottenuto sotto forma di una subportante modulata in frequenza da avviare a un rivelatore per ricavare l'informazione audio originaria.

Attraverso un dispositivo di separazione, dal segnale video vengono ricavati anche i segnali di sincronismo che servono per sincronizzare l'esplorazione delle righe e quella dei quadri. Questi segnali vengono detti di sincronismo di riga e di quadro, oppure orizzontale e verticale. La perdita di sincronismo di riga porta alla scomposizione dell'immagine in righe orizzontali, mentre la perdita del sincronismo verticale porta allo scorrimento sullo schermo, in senso verticale, dell'immagine, che rimane integra. Il segnale video vero e proprio viene avviato al sistema di sintesi; attualmente si utilizza il cinescopio (v. fig. 11), che deriva dal tubo a raggi catodici, ma sono in corso tentativi avanzati per la realizzazione di nuovi dispositivi.

Nel caso della televisione a colori, il segnale video prima di essere portato al cinescopio, che dovrà essere di tipo adatto per la riproduzione a colori, viene trattato per ricavare i segnali di luminanza e di crominanza di cui si è già detto.

Nel cinescopio, un sistema ottico-elettronico - detto cannone elettronico (v. fig. 12) - produce un fascio di elettroni che vengono accelerati ad alta velocità per effetto di una differenza di potenziale elevata (15 kV per cinescopi in bianco e nero, 25 kV per cinescopi a colori). L'impatto sullo schermo di questo fascio di elettroni, eccitando i fosfori che ivi sono depositati, produce una radiazione luminosa, tanto più intensa quanto maggiore è il numero di elettroni che costituisce il fascetto. Modulando questo fascetto, ovvero modulando la corrente elettronica, si varia la luminosità. Un campo magnetico applicato al cinescopio devia il fascetto spostando il punto luminoso sullo schermo (v. fig. 13). L'intensità di questo campo magnetico viene variata in modo che il pennello elettronico descriva tutta la superficie sullo schermo realizzando la sua scansione con righe orizzontali interallacciate secondo quanto detto in precedenza. La variazione del campo magnetico di deflessione viene mantenuta sotto il controllo dei segnali di sincronismo per evitare una falsa ricostruzione dell'immagine. Mentre il pennello elettronico scandisce lo schermo, la sua intensità viene modulata dal segnale video in accordo con i chiaroscuri dell'immagine che viene trasmessa.

Nel cinescopio a colori (v. elettronica) ci sono tre cannoni elettronici invece di uno solo. Ogni cannone elettronico provvede alla riproduzione di uno dei tre colori fondamentali. Infatti il fosforo depositato sullo schermo è una miscela di tre fosfori capaci di produrre rispettivamente i colori verde, azzurro e rosso. Un'opportuna maschera di altissima precisione fa sì che gli elettroni di ogni cannone colpiscano solo i granuli di fosforo emettitori di uno dei tre colori. Variando le intensità dei tre fascetti elettronici, si può far prevalere una colorazione sull'altra ottenendo anche colori intermedi, per mezzo della loro miscelazione, e naturalmente anche il bianco.

Un breve cenno meritano i sistemi di ricezione a proiezione su grande schermo. Un primo tipo (v. fig. 14) è basato sull'adozione di piccoli cinescopi di breve vita perché alimentati a tensioni molto elevate, capaci di produrre immagini altamente luminose che possono essere proiettate su uno schermo di tipo cinematografico attraverso un sistema ottico, detto ottica di Schmidt, principalmente costituito da uno specchio sferico. Questo sistema, non molto recente, ha trovato ora un'efficace alternativa nel sistema Eidophor, in cui è presente un liquido che viene fortemente illuminato da una sorgente luminosa. Un sistema ottico di proiezione particolare è realizzato in modo che quando la superficie del liquido è indisturbata nessuna luce raggiunge lo schermo. Solo i punti della superficie del liquido fuori della posizione di riposo riflettono luce che, attraverso il sistema ottico, viene proiettata con una corrispondenza tra punti della superficie liquida e punti dello schermo. La superficie del liquido viene scandita con un fascio di elettroni prodotto da un cannone elettronico identico a quello di un cinescopio anche per quel che riguarda il sistema di scansione e di controllo dell'intensità del fascio. Quanto più l'intensità del fascio è elevata, tanto più la superficie del liquido è deformata nel punto di impatto; di conseguenza una maggiore intensità di luce è proiettata sullo schermo.

i) Dispositivi ausiliari.

In relazione alla trasmissione dell'informazione televisiva sono stati realizzati altri dispositivi che spesso utilizzano tecniche comuni alla televisione e servono di supporto e ausilio a molte attività connesse con la trasmissione dell'immagine. In particolare alcuni di questi dispositivi hanno la funzione di immagazzinare l'informazione visiva per un'utilizzazione differita.

Tra questi sistemi sono da annoverare quelli per la registrazione video. Un tipo molto noto di registrazione è quello a nastro (v. fig. 15) in cui il supporto di memorizzazione è costituito da un nastro magnetico. Poiché la larghezza di banda del segnale è molto ampia, è necessaria una registrazione ad alta velocità per poter ottenere la riproduzione delle frequenze elevate. Ciò si ottiene disponendo 4 teste magnetiche equispaziate su un disco posto in rotazione trasversalmente rispetto al nastro che si muove con velocità relativamente modesta in direzione parallela all'asse del disco. Questo sistema di registrazione è noto come ‛quadruplex'. Un sistema sviluppato di recente, noto come registratore ‛a scansione elicoidale' o ‛a traccia obliqua', utilizza la combinazione di un moto rotatorio con un moto lineare per produrre un tracciato di registrazione con configurazione elicoidale. In questo sistema il nastro magnetico è avvolto intorno a un tamburo di scansione, contenente una o due teste magnetiche che ruotano su un disco ad alta velocità posto all'interno del tamburo. Il nastro si muove con velocità tale da permettere la registrazione, in coordinazione con il movimento della testa, di una serie di tracce oblique.

Un altro dispositivo recente, di uso ancora limitato, é il sistema a videodisco. Il disco è costituito da un sottile foglio di plastica. Il trasduttore di lettura (pick-up) rileva le ondulazioni del fondo dei solchi, e non delle pareti come nel fonografo, e ne converte l'informazione in segnali elettrici. Invece che dalla piattaforma girevole, il disco è posto in rotazione da un asse centrale, che lo tiene librato al di sopra di un piatto che rimane fermo. Un sottile cuscino d'aria compreso tra il disco e il piatto ha funzione stabilizzante per il disco. Il braccio del piek-up è comandato da un meccanismo che lo obbliga a seguire il solco che non ha anche la funzione di guida, come nel fonografo. Per ciascuna rotazione completa, il pick-up esplora la superficie di un solco su cui è impresso un intero quadro televisivo; per lo standard televisivo a 625 righe (25 quadri al secondo) ciò corrisponde a velocità di rotazione del disco di 25 giri al secondo, ovvero di 1.500 giri al minuto. Poiché ciascun quadro occupa un singolo solco, è semplice ottenere la riproduzione di una specifica immagine per un tempo indefinito, o selezionare una sequenza di immagini in modo arbitrario. Il numero dei solchi, che è molto elevato, può raggiungere i 500 per millimetro.

Un dispositivo ausiliario di uso frequente è il telecinema, che è un sistema destinato alla scansione diretta di pellicole cinematografiche e diapositive. I sistemi di riproduzione di film si basano su due tecniche fondamentali: il primo sistema, denominato flying spot, trova applicazione più frequente in Europa in conseguenza del valore di 25 immagini al secondo prescelto per la frequenza di quadro, mentre il secondo sistema, maggiormente diffuso negli Stati Uniti, è più complesso ed è basato sull'impiego del vidicon, che è un tubo da ripresa adatto anche per telecamera.

Come si è già detto, nella cinematografia è stato adottato di norma un numero di 24 immagini al secondo. Lo standard televisivo europeo adotta invece un valore di 25 immagini al secondo. Poiché la differenza è relativamente piccola, nella trasmissione di telefilm con lo standard europeo si usa aumentare leggermente la velocità di proiezione del film portandola da 24 fotogrammi al secondo a 25, con un effetto che l'osservatore non avverte. L'analisi delle pellicole viene allora ottenuta per mezzo di un piccolo cinescopio, scandendo lo schermo con la trama di immagine standard, senza modulare l'intensità del pennello elettronico e quindi a luminosità costante. Un sistema ottico proietta l'areola luminosa sul fotogramma, che viene così analizzato. La luce che passa attraverso la pellicola, modulata in intensità dal chiaroscuro delle immagini, viene indirizzata su una fotocellula che effettua la trasduzione luce-segnale elettrico originando l'informazione video. Il pennello luminoso (flying spot) è controllato nei suoi spostamenti dagli stessi segnali di sincronismo trasmessi.

Con lo standard americano a 30 immagini al secondo non è possibile aumentare la velocità di proiezione di film fino a questo numero di fotogrammi, in quanto ne risulterebbero dei movimenti accelerati simili a quelli che venivano spesso utilizzati per la proiezione di scene comiche. Per proiettare i normali film, con questo standard, viene utilizzato il tubo vidicon che, come in una comune telecamera, analizza il fotogramma proiettato sulla sua superficie sensibile. Per adeguare la differente frequenza di immagine televisiva si usa scandire i fotogrammi alternativamente per la durata di due e di tre campi, anziché sempre di due campi. Pertanto, durante la durata di due fotogrammi, vengono trasmessi cinque campi, invece dei quattro che sono normalmente trasmessi per esaminare due successive immagini. Con questo accorgimento si ha una virtuale riduzione della frequenza delle immagini a 4/5 del valore standard e si ottengono così 24 fotogrammi al secondo.

È possibile realizzare il procedimento inverso all'analisi cinematografica, che consiste nell'impressionare la pellicola e ricavare quindi dei film a partire da un'informazione televisiva. Per questa applicazione vengono utilizzate diverse soluzioni che consentono un avanzamento della pellicola a velocità costante, invece che a scatti come avviene nella ripresa cinematografica normale.

l) Distribuzione del segnale.

Spesso l'informazione televisiva viene scambiata tra reti fra loro diverse. Esistono apposite organizzazioni private o pubbliche che gestiscono questi sistemi di telecomunicazioni anche a carattere mondiale.

Da un punto di vista tecnico, i sistemi di trasmissione che consentono questi scambi si riconducono praticamente all'utilizzazione dei supporti di trasmissione che sono già stati esaminati: le onde elettromagnetiche e i cavi. Trattandosi di apparecchiature professionali, alcune limitazioni di ordine economico, in particolare riferite al costo di ricezione, vengono ad essere eliminate. Ad esempio la banda delle frequenze portanti utilizzabili diviene molto più ampia per la possibilità di adottare anche apparecchiature complesse e costose.

I trasferimenti di informazioni televisive non sono da considerare esclusivamente in termini di scambi tra reti di diffusione circolare ma anche di scambio tra diretti utilizzatori.

Per ciò che concerne la trasmissione via cavo dell'informazione video si è già riferito nella parte relativa alla trasmissione dei segnali televisivi. Si può aggiungere che il flusso d'informazione fra due punti qualunque di una rete può scorrere in tre modi: 1) soltanto in una direzione (simplex); 2) in entrambe le direzioni simultaneamente (duplex); 3) in entrambe le direzioni, ma non simultaneamente (semiduplex). È bene notare che, nelle trasmissioni duplex o semiduplex, il flusso di informazione non ha necessariamente la stessa cadenza in entrambi i versi.

Attualmente, intensificandosi continuamente la richiesta di utilizzare parti sempre più ampie dello spettro di frequenze e aumentando sempre più il numero delle richieste di trasmissioni di informazioni, è iniziata la sperimentazione delle comunicazioni elettroottiche. L'avvento del laser ha potenziato notevolmente questa tecnica, grazie alle caratteristiche di coerenza e di stabilità in frequenza della luce da esso emessa. Parallelamente si sono sviluppati cavi costituiti da fibre di vetro di elevata purezza che permettono la trasmissione della radiazione luminosa con perdite bassissime. Le prospettive della trasmissione ottica comprendono: la possibilità di trasmettere altissimi flussi d'informazione; un isolamento elettrico completo tra i terminali di trasmissione; un'alta affidabilità della trasmissione; nessuna generazione di interferenze elettromagnetiche e sensibilità ad esse; la riduzione dei problemi di adattamento d'impedenze; un ridotto ingombro delle apparecchiature.

La distribuzione di un segnale televisivo attraverso estesi territori può essere effettuata anche con le onde elettromagnetiche. Per queste trasmissioni vengono utilizzati dei ponti radio che impiegano apparecchiature di altissima qualità ed elevata affidabilità. Antenne direttive, capaci di irradiare tutta l'energia messa a disposizione dal sistema esclusivamente nella direzione del posto ricevente, sono associate ad antenne direttive riceventi che captano solo i segnali provenienti dalla direzione voluta. Spesso questi ponti consentono la trasmissione contemporanea di più programmi. Le frequenze portanti a cui questi canali operano sono molto più elevate di quelle utilizzabili per la diffusione circolare.

Un nuovo metodo di tramissione e di ricezione dei segnali di natura elettromagnetica consiste nell'impiego dei satelliti per telecomunicazioni. Essenzialmente un satellite per telecomunicazioni ha la funzione di rilanciare l'informazione trasmessagli da una stazione terrestre (ramo ascendente) verso un'altra stazione terrestre (ramo discendente), consentendo un collegamento a lunga distanza che ha risolto il problema delle trasmissioni intercontinentali.

I moderni satelliti hanno quindi funzione di stazioni ripetitrici e risolvono in questo modo il problema della portata ottica delle radioonde a frequenza elevata dovuto alla curvatura terrestre.

È anche possibile utilizzare satelliti in modo passivo, come ostacoli riflettenti, privi di un proprio trasmettitore: si evitano così i problemi di rifornimento di energia e per la ripetizione del segnale si sfrutta la riflessione del segnale causata dal satellite sulle radioonde incidenti. Va da sé che in questo caso il segnale non viene rinforzato, ma al contrario subisce una notevole attenuazione.

Nelle comunicazioni via satellite vengono di solito usate frequenze molto elevate, che possono arrivare ad alcune centinaia di gigahertz.

5. Applicazioni.

a) La diffusione circolare.

L'applicazione più nota della tecnica televisiva è sicuramente costituita dalla diffusione circolare. Esiste nel mondo un numero rilevante di reti che provvedono a trasmettere a una vasta utenza spettacoli, notiziari di attualità e programmi a carattere didattico. L'area interessata alla ricezione può avere dimensioni urbane, regionali, nazionali; le reti possono essere gestite da organizzazioni a carattere pubblico o privato. Attraverso sistemi di interconnessione, costituiti da cavi coassiali o ponti radio, cioè ripetitori, che possono essere installati anche su satelliti, ogni rete può scambiare i suoi programmi con le altre. Questo scambio può intervenire a vari livelli: da quello interregionale a quello intercontinentale.

Nei riguardi della televisione destinata alla diffusione circolare, entrambe le soluzioni di trasmissione, quella via radio e quella via cavo sono in pratica adatte. Ricordiamo brevemente i vantaggi e gli svantaggi dell'uno e dell'altro metodo.

La diffusione via radio consente facilmente ed economicamente di coprire una vasta area di utenza; infatti non occorre predisporre una complessa rete di cavi coassiali, che non è sempre facilmente realizzabile in un agglomerato urbano e che comporta problemi di manutenzione non trascurabili; si ricordi tra l'altro che i segnali trasmessi via cavo necessitano di sistemi di rinforzo distribuiti, per ovviare all'attenuazione che subiscono nella trasmissione, e soprattutto debbono essere presenti dei dispositivi di distribuzione ai vari utenti. Infatti il collegamento alle linee coassiali non può essere effettuato alla stregua di quello di una qualsiasi rete elettrica, perché, in conseguenza delle alte frequenze di trasmissione e delle loro ampie bande, occorre usare degli accorgimenti di adattamento di impedenza relativamente delicati.

D'altra parte un inconveniente della televisione via radio è che essa non può soddisfare già ora, e tanto meno nei prossimi anni, alle sempre crescenti necessità di informazione che l'evolversi della società impone oggi, e ancor più imporrà in futuro. Le bande di frequenza utilizzabili per la radiodiffusione della televisione sono sempre più limitate e il loro impiego deve essere strettamente regolamentato, sia in campo nazionale, sia in campo internazionale, per evitare interferenze reciproche e per far fronte alla crescenti necessità di collegamenti con i mezzi mobili. Per contro, il numero dei programmi che si possono distribuire per mezzo di cavi è teoricamente illimitato e si potrebbe soddisfare a tutte le future richieste di trasmissione installando nuove reti di cavi. Un altro vantaggio offerto dalla televisione via cavo è la minor presenza di disturbi che possono interferire con le immagini; infatti nella trasmissione radio può verificarsi che al posto ricevente pervengano anche delle interferenze, mentre il cavo coassiale si avvicina di più a un sistema isolato in cui la penetrazione di disturbi è di trascurabile entità.

Nell'adozione del sistema di distribuzione di immagini televisive, a parte considerazioni di indisponibilità di canali radio che può di per sé imporre una scelta orientata verso il cavo, intervengono anche considerazioni sulla orografia e sull'estensione della zona da servire, nonché sulla densità delle utenze e sulla loro disposizione. È ovvio ad esempio che, dovendo distribuire il segnale televisivo all'interno di un edificio, non si adotterà la trasmissione via radio, ma si preferirà stendere una rete di cavi come avviene negli impianti condominiali per la distribuzione dei segnali provenienti dalle antenne centralizzate. Per ripristinare i segnali in conseguenza della loro degradazione lungo la linea di trasmissione, occorre procedere a una loro riamplificazione, che viene in genere effettuata secondo lo schema della fig. 16.

Sulla base dei più recenti sviluppi tecnici e degli orientamenti prevalenti in Europa e negli Stati Uniti, una rete di distribuzione televisiva via cavo è costituita, nella sua più semplice o elementare configurazione, dai seguenti elementi: a) una stazione di testa o stazione principale (head end), che assolve le funzioni di ricezione dei segnali televisivi emessi dai trasmettitori locali o lontani, di eventuale generazione di programmi locali, di allogazione in frequenza e controllo dei segnali trasmessi; b) una rete principale (trunk line) che collega la stazione di testa con i nodi di distribuzione (con i punti cioè dai quali si dipartono i collegamenti per il singolo utente); c) una rete di distribuzione (distribution network) che provvede a trasferire i segnali dai nodi di distribuzione ai ricevitori degli utenti. La rete principale e parte delle reti d'utente sono in genere interrate, per evitare danneggiamenti.

La dimensione ritenuta più conveniente per un sistema locale è quella capace di servire circa 10.000 utenti (30-40.000 ab.). Le reti locali di un medesimo centro urbano possono essere interconnesse con altre reti a mezzo di collegamenti interurbani in cavo coassiale o in ponte radio, in modo da poter costituire una rete più ampia. Per realizzare queste reti sono impiegate due tecniche di multiplazione (a divisione di spazio e a divisione di frequenza), che possono consentire comunicazioni unidirezionali e bidirezionali. In alcuni casi sono impiegate sulla stessa rete entrambe le tecniche.

Nei sistemi VHF (a divisione di frequenza) i segnali televisivi e quelli radiofonici sono distribuiti agli utenti in canali, opportunamente allogati, nella banda di frequenza VHF compresa tra 30 e 300 MHz. Presso ogni utente un'apposita apparecchiatura, detta ‛convertitore', converte i vari canali in arrivo in uno dei canali per i quali sono predisposti i normali ricevitori televisivi.

La lunghezza della rete principale in cavo coassiale non può superare, in genere, una ventina di chilometri. Per distanze maggiori è necessario ricorrere a cavi e ad apparecchiature particolari. La rete di distribuzione è costituita dall'insieme di cavi coassiali che si dipartono da quelli principali, di solito in corrispondenza degli amplificatori, per una lunghezza che in genere è dell'ordine del chilometro.

Nei sistemi HF (a divisione di spazio) la rete principale è costituita da tanti cavi coassiali di piccolo diametro quanti sono i programmi televisivi; la lunghezza massima della rete può essere in questo caso di alcune decine di chilometri. La rete di distribuzione presenta la stessa molteplicità di cavi che si riscontra nella rete principale; però, anziché cavi coassiali, vengono talvolta usati cavi a coppie simmetriche (come quelli telefonici), di costo e ingombro ridotti.

Nella stazione di testa i segnali televisivi sono convertiti nella banda 3÷14 MHz, facendo in modo che tutte le portanti dei vari programmi abbiano la stessa frequenza. Se il numero dei programmi distribuiti è limitato (sei o meno), all'utente arrivano tanti cavi o coppie quanti sono i programmi. L'utente seleziona poi i vari programmi mediante un apposito commutatore. Quando invece il numero dei programmi distribuiti è alto, la rete di distribuzione che collega la rete principale con i vari utenti è costituita da un solo supporto fisico per ciascun utente, in quanto è prevista la possibilità di selezionare a distanza il programma desiderato. Tale selezione viene effettuata in un'apposita centralina, dove è installato un apparato di selezione comandato dall'utente mediante un'opportuna tastiera o analogo dispositivo. Il ricevitore televisivo è in genere del tipo convenzionale preceduto da un apposito dispositivo che converte il segnale ricevuto nella banda HF in uno dei canali della banda VHF previsti nel ricevitore.

b) Applicazioni scientifiche e industriali della televisione.

Alcune applicazioni delle televisione hanno come fine la visione di immagini relative all'evoluzione di processi ed eventi a cui per varie ragioni gli osservatori non possono assistere direttamente. In questi casi, la visione può essere assicurata ricorrendo all'ausilio di una catena televisiva costituita da un apparato di ripresa, un sistema di trasmissione e uno di ricezione.

Naturalmente i destinatari dell'informazione televisiva in queste applicazioni vengono a costituire una cerchia relativamente ristretta. Varie possono essere le ragioni che si oppongono alla presenza diretta degli osservatori. Talvolta la visione diretta può essere impedita perché l'ambiente in cui si trova il soggetto da esaminare ha caratteristiche incompatibili con la sicurezza personale, l'abitabilità e la sopravvivenza degli osservatori. Si possono citare come esempi: la visione subacquea a grande profondità, la manipolazione sotto controllo visivo di sostanze chimiche o radioattive dannose, l'osservazione di processi in zone pericolose o disagiate in conseguenza di valori elevati di temperatura, grado di umidità, pressione, accelerazione e vibrazioni; altri casi riguardano ambienti in cui sussiste il pericolo di esplosioni o la presenza di gas tossici. Un esempio può essere costituito dalla associazione della televisione alla radioscopia: in questa applicazione il radiologo, invece di osservare l'immagine radioscopica attraverso gli schermi usuali, la osserva attraverso un idoneo sistema televisivo che gli garantisce la protezione dalle elevate radiazioni X emesse dagli apparecchi radioscopici. È frequente l'uso di riprese televisive in ambiente privo di atmosfera come nell'esplorazione spaziale per mezzo di veicoli non abitati ai quali, proprio per l'assenza umana, non viene richiesto l'altissimo grado di affidabilità che si impone per quelli abitati.

Si può utilizzare la televisione anche per verificare lo stato di oggetti situati in zone irraggiungibili dall'uomo, come l'interno di condotte e recipienti. In medicina ci si serve della televisione per l'endoscopia (impiegando delle microcamere) o per ragioni di profilassi, quando si voglia garantire la totale asepsi di certi ambienti: è classico il caso delle nurseries in cui i neonati sono mantenuti sotto controllo da parte del personale sanitario senza che questo possa costituire un portatore di germi.

La televisione viene usata, inoltre, quando si vuole attuare il controllo centralizzato di più zone da parte di un ristretto numero di persone. L'informazione video giunge a una consolle che riunisce un certo numero di ricevitori che possono essere collegati ognuno a una telecamera che esamina la scena richiesta. I sistemi centralizzati di ripresa televisiva si stanno diffondendo rapidamente per il controllo dei pazienti negli ospedali, nei sistemi antifurto, per avere una visione contemporanea e per controllare impianti, fabbriche, ecc., nei sistemi di controllo del traffico automobilistico e ferroviario.

Un'altra applicazione è ricollegabile al problema inverso al precedente: infatti rende possibile prendere visione di un evento a molte persone che, se presenti, ne pregiudicherebbero lo svolgimento. È il caso della trasmissione di immagini relative a interventi operatori, in modo da renderli visibili a tutti coloro che possono essere interessati.

c) Le comunicazioni televisive bilaterali.

La maggior parte degli impieghi televisivi sin qui considerati prevede la trasmissione dell'informazione in una sola direzione. In questi sistemi esistono uno o più posti di trasmissione e uno o più posti di ricezione e non è prevista la possibilità che uno di essi possa essere contemporaneamente posto di ricezione e posto di trasmissione, consentendo l'inversione della direzione di scambio dell'informazione. Esistono altre applicazioni in cui e invece necessario invertire il flusso di informazione. La più importante fra queste applicazioni è il videotelefono.

La concezione del videotelefono è molto semplice e d'altronde non è che un'estensione del normale telefono anche alla visione. Da un punto di vista strettamente teorico il videotelefono non pone difficoltà, che sono invece presenti in gran numero dal punto di vista tecnico ed economico. Anche adottando per le trasmissioni videotelefoniche uno standard che consenta immagini di qualità inferiore a quelle della diffusione circolare, la banda di frequenze da trasmettere per un'informazione visiva risulta eccessivamente ampia per le reti telefoniche esistenti. Per realizzare un sistema videotelefonico che abbia una buona diffusione - e in ultima analisi una probabilità di successo - occorrerebbe rinnovare le reti telefoniche attuali con altre capaci di trasmettere un segnale video che consenta immagini accettabili. È pur vero che la questione della revisione dei criteri realizzativi delle reti telefoniche si pone anche per altre applicazioni dell'informatica che richiedono canali d'informazione relativamente ampi.

La trasmissione dell'immagine per videotelefono può avvenire secondo due modalità: trasmissione ‛simplex', in cui il transito sul supporto di trasmissione (un cavo o una radioonda) viene utilizzato alternativamente nelle due direzioni di trasmissione a seconda del corrispondente che deve trasmettere la propria informazione; trasmissione ‛duplex', in cui i canali di trasmissione sono materialmente due o duplicati virtualmente secondo tecniche di multiplazione.

Allo stato attuale le realizzazioni videotelefoniche, tecnicamente ineccepibili, non hanno in pratica una grande diffusione.

d) La trasmissione delle immagini fisse.

La trasmissione di immagini fisse, o trasmissione in facsimile, pur non rientrando integralmente nel campo della televisione, ha alcuni aspetti in comune con essa. La tecnica di analisi video è in linea di principio simile a quella televisiva, tenendo presente però che il tempo a disposizione per la scansione di un'immagine, essendo questa ferma, è praticamente illimitato, salvo considerazioni di ordine pratico. La scansione pertanto può essere lenta, richiedendo così una banda di frequenza, correlata all'informazione trasmessa, che può essere di ampiezza modesta, così da potersi trasmettere attraverso un normale canale telefonico.

La scansione dell'immagine può essere effettuata con dispositivi di tipo meccanico, molto simili a quelli proposti per le prime realizzazioni televisive, costituiti da specchi rotanti od oscillanti. L'originale da trasmettere può anche essere avvolto su un tamburo rotante sul quale agiscono una lampada e una fotocellula in moto traslatorio, che vengono quindi a scandire l'immagine secondo un percorso elicoidale; spesso è invece lo stesso tamburo che trasla contemporaneamente alla rotazione (v. fig. 17).

I dispositivi di scansione meccanica sono relativamente lenti, ma più che adeguati per sistemi che utilizzano come supporto di trasmissione le normali linee telefoniche. Se è invece previsto l'impiego di sistemi trasmissivi a larga banda, per la scansione d'immagine vengono usati dei tubi a raggi catodici ad alta risoluzione, del tipo flying spot. Ovviamente è anche possibile effettuare la ripresa dell'immagine attraverso una normale telecamera.

Attualmente vengono realizzati anche dei sistemi a fotodiodi multipli allineati che esaminano, ciascuno lungo una riga, l'immagine posta in movimento.

L'informazione video ricavata dall'analisi può essere trasmessa direttamente o modulando un segnale portante; oppure può essere trasformata in un'informazione numerica codificata a mezzo di impulsi. Al posto di ricezione deve esistere un dispositivo capace di ricostruire l'immagine su un adeguato supporto. Spesso si usa la normale pellicola fotografica, ma occorre ricordare che esistono innumerevoli metodi di riproduzione di immagini. Oltre a tutte le possibili tecniche fotografiche (con le varie emulsioni sensibili e con i conseguenti diversi processi di sviluppo), esistono tecniche elettrofotografiche (xerox, elettrolitiche, fotoelettroforetiche, ecc.), elettriche (carte conduttive, carte elettrosensitive, registrazione elettrochimica, ecc.), termiche (carte termosensibili), ad effetto di pressione (carte carbone).

e) Applicazioni didattiche della televisione.

La diffusione della televisione ha aperto nuove e interessanti prospettive anche nel settore didattico. La televisione può essere associata a un elaboratore elettronico e fungere pertanto da canale di collegamento con l'utente. Il sistema nel suo insieme può consentire sia la trasmissione in un solo senso, come nel caso di programmi didattici teletrasmessi, sia permettere un dialogo (sistema ‛conversazionale') tra utente e calcolatore.

Sono stati proposti diversi metodi didattici televisivi: ne descriveremo alcuni tra i più importanti che offrono soluzioni interessanti e suscettibili di futuri sviluppi.

Nel metodo CAI (Computer Assisted Instruction, istruzione con l'ausilio dell'elaboratore) un elaboratore elettronico fornisce una prefissata sequenza di materiale didattico allo studente mediante un terminale a distanza, di tipo televisivo. Lo studente inizia le prove preliminari rispondendo a domande sotto la direzione dell'elaboratore. Se le risposte sono esatte, si considera esaurita la lezione e si passa direttamente alla lezione successiva; se le risposte non sono esatte, si segue l'intera lezione. La sequenza delle lezioni è programmata in modo che il passaggio alla lezione successiva avvenga solo dopo che sia stata accertata la comprensione della lezione precedente. Completato il ciclo, vi è un nuovo esame, superato il quale si procede a una rassegna durante la quale vi sono da superare nuove prove. È evidente che questo metodo fornisce i migliori risultati nell'insegnamento di materie basate su fatti e sulla logica (come nel caso della matematica). Alcuni esempi sperimentati di applicazione del metodo CAI sono i seguenti: 1) esercitazione e addestramento: l'elaboratore memorizza esercizi di grado di difficoltà crescente e li presenta in tale ordine; 2) ripetizione: l'elaboratore presenta il materiale nello stesso ordine in cui esso è presentato nel libro di testo e lo studente ha la possibilità di costruire le risposte; 3) domande e risposte: un metodo interattivo fra elaboratore e studente, che permette di ottenere un gran numero di risposte mettendo a fuoco determinati punti dell'argomento; 4) soluzione di problemi, modellistica e simulazioni numeriche: l'elaboratore viene utilizzato come uno strumento di calcolo piuttosto che come sussidio didattico.

Nel metodo CMI (Computer Managed Instruction, istruzione guidata dall'elaboratore) l'elaboratore elettronico ha soprattutto la funzione di valutare i progressi conseguiti dallo studente e di scegliere per ciascuno studente le istruzioni più adatte ai bisogni individuali, piuttosto che quella di impartire le istruzioni. Alcune delle funzioni contemplate nel metodo CMI sono le seguenti: 1) esaminare gli studenti e valutare i risultati; 2) confrontare i risultati dell'esame con alcune regole didattiche per la scelta della più appropriata; 3) utilizzare in modo limitato il programma di esercitazione e addestramento del metodo CAI; 4) sviluppare, mantenere e supervisionare l'evoluzione del livello di istruzione dello studente.

Infine, nel metodo ISR (Information Storage and Retrieval, immagazzinamento e restituzione dell'informazione), l'elaboratore elettronico è utilizzato come biblioteca.

Benché l'uso didattico degli elaboratori sia stato molto pubblicizzato, la verità è che dal punto di vista commerciale finora questo programma non ha avuto grande successo. Un promettente passo in avanti per modificare questa situazione è il programma denominato TICCIT (Time-shared Interactive Computer-Controlled Information Television) della Mitre Corporation. Questo sistema è stato progettato cercando di utilizzare componenti commerciali di tipo non specializzato, in modo da ridurre notevolmente i costi e favorire quindi la diffusione del sistema. Un prototipo del sistema TICCIT è in sperimentazione a Reston, negli Stati Uniti. Nella sua essenza, il sistema segmenta il tempo in un certo numero d'intervalli, in ciascuno dei quali viene trasmessa un'immagine ricevibile da un apparecchio televisivo. Nel luogo di ricezione vi è un dispositivo che rigenera l'immagine ripetendola in modo che al televisore giunga la normale sequenza di campi al secondo. Nel sistema TICCIT, l'informazione è registrata in una banca di dati e può essere estratta dall'elaboratore mediante comando impartito da un terminale remoto installato presso l'utente. I dati vengono indirizzati al terminale che li ha richiesti in esclusiva, e ciò può essere ripetuto alternativamente servendo fino a 600 terminali remoti: l'elaboratore dirige il traffico dell'informazione. I dati vengono trasmessi dall'elaboratore al terminale su un canale del sistema televisivo via cavo funzionante a Reston, mentre le richieste dei terminali giungono all'elaboratore mediante linea telefonica provvista d'interfaccia per accettare messaggi alfanumerici (modem). La più importante e promettente caratteristica del sistema TICCIT è la grande efficienza rispetto al costo: infatti esso utilizza come visualizzatore il normale apparecchio televisivo domestico e come rete di telecomunicazione il sistema CATV, già esistente.

Sono ormai oltre dieci anni che presso l'Università dell'Illinois si sta perfezionando il sistema PLATO (Programmed Logic for Automatic Teaching Operations, logica programmata per operazioni di insegnamento automatico). Alcune fra le materie disponibili sono: ingegneria elettrotecnica, geometria, biologia, pediatria, servizi di biblioteca, farmacologia, chimica, algebra, programmazione elettronica e lingue. Finora, nell'ambito dei corsi, sono state impiegate ben oltre 100.000 ore-studente-terminale con un costo irrisorio.

Il sistema sviluppato a Dartmouth utilizza la tecnica del time-sharing, o della suddivisione temporale, per un programma di televisione didattica destinato a essere di sussidio a un corso d'istruzione umanistica e a rappresentare una vivificante variante ai metodi usuali. Forse il più efficace contributo tecnologico dato a Dartmouth è stato lo sviluppo di un linguaggio di programmazione (il BASK) così semplice da poter essere imparato e utilizzato in poche ore.

In conclusione, le realizzazioni tecniche dei sistemi di televisione didattica sono state buone, non altrettanto i costi. I terminali di utenza dovranno avere prezzi più accessibili, così come più accessibili dovranno essere i costi e la disponibilità dei comuni mezzi di diffusione delle informazioni.

Ciò di cui attualmente si avverte urgente necessità è un programma intensivo che utilizzi la possibilità d'impartire le istruzioni individualmente più adatte, allo scopo di migliorare l'abilità degli studenti delle prime classi nella lettura e nella matematica.

Il futuro condurrà a una forma di centralizzazione delle telecomunicazioni didattiche, consistente in una banca centrale d'informazioni, capace di svolgere molte funzioni, in una rete di distribuzione delle informazioni e in terminali periferici al servizio di nuclei più o meno vasti di utenti. Secondo gli studi correnti, la scala dei tempi secondo cui si svilupperanno i sistemi di televisione didattica sarà la seguente:

Tabella

f) Rilevamento delle condizioni meteorologiche, ecologiche, geologiche e geografiche della Terra.

La possibilità di rilevare in modo continuo le condizioni meteorologiche e geologiche terrestri si è offerta con il lancio del satellite ERTS (Earth Resources Technology Satellite), un satellite di circa 900 kg, che ruota intorno alla Terra su di un'orbita polare 14 volte al giorno, all'altezza di circa 900 km e osserva la stessa scena al suolo ogni 18 giorni. Nel suo primo anno di attività l'ERTS ha ripreso 34.000 fotografie. La costruzione della mappa degli Stati Uniti richiede 500 fotografie dell'ERTS, mentre con un normale aereo ne sarebbero necessarie 500.000.

L'ERTS rileva le informazioni mediante tre sistemi: un sistema televisivo, un sistema di scansione multispettrale, e un sistema di raccolta di dati.

Il sistema televisivo utilizza una telecamera ad alta risoluzione, la cui apertura angolare permette di osservare istantaneamente circa 34.000 km2 di superficie terrestre, per riprendere immagini simultaneamente in tre bande spettrali: verde, rosso e infrarosso vicino. La risoluzione è sufficiente per rilevare malattie delle colture, sciami di locuste, incendi di foreste, alluvioni ed effetti di terremoti ed eruzioni vulcaniche. Si ottiene così un'informazione continua sullo stato del nostro pianeta, allo stesso modo in cui i medici ricevono informazioni continue sullo stato dei pazienti nei reparti di assistenza intensiva degli ospedali.

Il sistema di scansione multispettrale trasmette immagini della superficie delle montagne e delle valli, dei deserti di sabbia e dei deserti di ghiaccio, in quattro bande spettrali: verde, rosso e due bande dell'infrarosso vicino. I due sistemi menzionati permettono, tra l'altro, un'osservazione continua dell'emissione termica terrestre. Si possono così misurare variazioni giornaliere, settimanali, mensili e annuali dell'albedo terrestre (cioè della capacità della superficie terrestre di riflettere la luce solare nello spazio).

Il sistema di raccolta di dati preleva i dati misurati al suolo da 150 stazioni automatiche ubicate in località remote, per misurare l'attività sismica, le precipitazioni, la temperatura del suolo, la pressione e l'umidità atmosferiche.

I dati rilevati vengono memorizzati su registratori a nastro a larga banda, non dissimili da quelli domestici. Essi vengono usati quando il satellite non è in vista di alcuna delle tre stazioni di acquisizione terrestri, ubicate una negli Stati Uniti, una in Canada e una in Brasile. Si spera che un'altra stazione sia installata tra breve vicino Roma, dove la Telespazio S.p.a. sta progettando un'eccellente stazione di acquisizione per ricevere i dati e utilizzarli a beneficio dell'Italia e del resto del mondo.

Il termine ‛telerilevamento' (remote-sensing), di recente introduzione, sta a indicare la tecnica di effettuare misure su di un oggetto da lontano: per esempio, una telecamera è un telerilevatore in quanto misura la luce riflessa dall'oggetto fotografato senza entrare in contatto materiale con esso.

Utilizzando la tecnica del telerilevamento, l'ERTS apre una nuova era in campi come l'agricoltura, la geologia, la geografia, la meteorologia e l'ecologia. Ad esempio, il controllo della malattia del verme del cotone richiede l'esplorazione di più di 300.000 ettari di terreno, per un impegno di 128 ore lavorative di un operaio: con l'ERTS sono sufficienti solo 16 ore lavorative. In alcune aree del Texas si misurano accuratamente l'infiltrazione e l'evaporazione delle riserve idriche nelle zone aride. Sono stati effettuati inventari di raccolti con la precisione di circa l'80%.

I dati rilevati dall'ERTS vengono analizzati da numerosi enti di ricerca disseminati in tutto il mondo, inclusa l'Italia.

6. Situazione mondiale dello sviluppo e del l'utilizzazione della televisione.

a) Le organizzazioni mondiali per la trasmissione via satellite.

I primi esperimenti per le trasmissioni spaziali iniziarono intorno al 1950, utilizzando un satellite naturale e non artificiale: la Luna. Queste trasmissioni sperimentali, effettuate dalla marina degli Stati Uniti, non potevano avvenire che sfruttando il fenomeno della riflessione delle radioonde sulla superficie lunare, data l'impossibilità a quell'epoca di installarvi apparecchiature.

Il primo satellite lanciato per le telecomunicazioni fu lo Score Atlas e la prima trasmissione radiodiffusa fu il messaggio di Natale del presidente degli Stati Uniti. Nel 1960 fu lanciato un altro satellite per telecomunicazioni di tipo passivo (basato sul principio della riflessione), di grandi dimensioni ma di basso peso (75 kg), essendo costituito da un pallone gonfiato in orbita e dotato di superfici conduttive riflettenti.

Successivamente sono stati lanciati satelliti di tipo attivo, cioè dotati delle apparecchiature di bordo per la ricezione e la ritrasmissione dei segnali, quali i Telstar e i Relay, questi ultimi per conto della NASA e costruiti dalla RCA.

Si deve ricordare che le telecomunicazioni spaziali hanno soltanto pochi anni di vita e che pertanto la loro capacità massima deve ancora essere sviluppata.

I primi satelliti a bassa quota consentivano la trasmissione solo periodicamente e per tempi di breve durata, poiché si spostavano rispetto alla Terra. Il primo satellite lanciato su un'orbita geostazionaria, tale cioè che il satellite appare fisso rispetto alla superficie terrestre, fu il SYNCOM. Il ricorso a satelliti geostazionari consente, oltre ad altri evidenti vantaggi, di coprire l'intera superficie terrestre (escludendo le calotte polari) con tre soli satelliti.

Nel 1962 fu istituita l'organizzazione COMSAT (Communication Satellite Corporation) e nel 1964 l'organizzazione INTELSAT (International Satellite Corporation) cui partecipavano all'inizio 11 nazioni e che ne comprende ora oltre 90. Il prototipo del sistema, INTELSAT I, denominato Early Bird, aveva una capacità di 240-300 circuiti telefonici o circuiti di equivalente larghezza di banda. Del successivo modello, INTELSAT II, sono stati lanciati due esemplari operativi. In questo modello i circuiti telefonici avevano possibilità di accesso multiplo (cioè consentivano telecomunicazioni simultanee a un numero indefinito di stazioni terrestri). Il modello INTELSAT III, di cui esistono 5 esemplari operativi, ha invece una capacità di 1.200 circuiti telefonici e di un canale televisivo. Infine, i modelli più recenti, INTELSAT IV e IV-A, hanno una capacità di oltre 6.000 circuiti telefonici o alternativamente di 12 canali televisivi a colori contemporanei. Le gamme di frequenza impiegate o da impiegare vanno da alcuni GHz ad alcune centinaia di GHz, ben al di sopra delle normali frequenze impiegate nella televisione circolare. La vita di un satellite è di circa 7 anni.

Negli ultimi tempi il confronto tra cavo e satellite nei collegamenti a lunga distanza, che sembrava vinto dai satelliti, si sta riproponendo, sia per alcune limitazioni che si sono manifestate nei sistemi a satellite a causa di reciproche interferenze, sia per i notevoli progressi nel settore dei cavi, in particolare quelli a fibre ottiche. In ogni caso per gli anni ottanta è prevista la messa in orbita di 144 satelliti e la realizzazione di 26.000 stazioni terrestri.

b) La diffusione nel mondo delle reti per la televisione via cavo.

La televisione circolare via cavo, denominata all'inizio Community Antenna Television (Televisione ad antenna collettiva) e successivamente, con l'evolversi delle reti stesse, CATV (Cable Television, Televisione via cavo), ha già attualmente delle pratiche applicazioni in molti paesi, anche se il suo sviluppo varia notevolmente da paese a paese in ragione del contesto sociale, culturale ed economico. Nel Nordamerica (Canada e Stati Uniti), per esempio, la televisione via cavo è di gran lunga più sviluppata che in Europa. Nella stessa Europa si riscontrano grandi differenze: in alcune nazioni la televisione via cavo ha già da anni notevoli applicazioni, mentre in altre se ne comincia a parlare solo adesso.

Si ritiene generalmente che il primo sistema di CATV, sia pure rudimentale e di dimensioni estremamente limitate, sia comparso nel 1949 negli Stati Uniti in una regione montagnosa dell'Ovest, non servita dalla televisione via radio, dove un tecnico locale ebbe l'ingegnosità di captare con un'antenna situata in posizione favorevole, i programmi irradiati da trasmettitori lontani e di ridistribuirli via cavo agli utenti della vallata. Successivamente, in alcune piccole città la distribuzione via cavo permise di aggiungere, all'unico programma televisivo ricevibile normalmente via radio, alcuni programmi supplementari irradiati da trasmettitori lontani e captati con un sistema di ricezione professionale (v. fig. 18).

Via via che questi sistemi di CATV moltiplicavano i programmi ricevibili, si introduceva il principio, rivoluzionario per gli Stati Uniti, del pagamento di un abbonamento per ricevere la trasmissione televisiva. La CATV è così divenuta rapidamente un'industria assai remunerativa ed ha conosciuto un ritmo di sviluppo accelerato, nonostante una regolamentazione assai severa imposta dal governo americano.

Mentre i primi sistemi avevano una capacità di soli 4-5 canali, vi sono ora degli esempi di reti che possono portare oltre 40 canali. L'attuale regolamentazione americana prevede che nelle grandi città le reti debbano permettere la ricezione di almeno 20 canali e che siano predisposte per poter avere in futuro capacità bidirezionali.

Già a metà del 1977 la CATV serviva ormai negli Stati Uniti ben 12,5 milioni di case e cioè il 17,3% delle abitazioni dotate di televisore.

Se la televisione via cavo è nata negli Stati Uniti, essa si è sviluppata molto più rapidamente in Canada (dove ha avuto inizio nel 1952), perché le condizioni di sviluppo erano molto differenti e le richieste degli utenti più pressanti.

Le prime reti sono sorte nelle regioni più vicine alla frontiera degli Stati Uniti, nelle quali la televisione via cavo poteva distribuire insieme ai programmi ricevuti via radio dai trasmettitori canadesi anche quelli ricevuti dai trasmettitori degli Stati Uniti installati nelle regioni vicine.

Verso la metà del 1977 vi erano quasi 4 milioni di utenti cioè circa 10 milioni di Canadesi (su una popolazione di 21 milioni) che ricevevano la televisione via cavo, il che corrisponde a un tasso di penetrazione di quasi il 50%.

I sistemi esistenti sono attualmente circa 400 e ciascuno di essi ha un numero variabile di abbonati, che va da 100 a oltre 150.000. La città di Vancouver detiene da lungo tempo il record mondiale con più di 150.000 utenti, ma sarà ben presto superata da Toronto. Nei 13 più grandi centri urbani oltre il 50% della popolazione riceve la televisione via cavo. Cinque città hanno già sistemi televisivi che possono servire il 75% della popolazione, una percentuale ritenuta praticamente eguale alla soglia della saturazione.

Da più di 10 anni un buon numero di reti sono divenute sistemi attivi e cioè producono in proprio una parte dei programmi. Come negli Stati Uniti, esse rappresentano circa 1/3 del totale.

In Europa, la maggior parte delle reti di CATV sono ancora reti embrionali. Spesso non oltrepassano lo stadio dell'antenna collettiva che serve un grande immobile o un piccolo quartiere. Solo alcuni paesi possiedono delle reti abbastanza importanti: il Belgio, l'Olanda, la Gran Bretagna e la Svizzera. Appunto il Belgio detiene incontestabilmente il primato dello sviluppo di reti di CATV. Ciò dipende dalla situazione particolare di questo paese, che ha la possibilità di ricevere, almeno con antenne di tipo professionale, programmi dalla Germania, dall'Olanda, dalla Francia, dal Lussemburgo e dalla Gran Bretagna. La televisione via cavo permette così ai suoi abbonati di ricevere oggi almeno 11 programmi.

Per quanto riguarda il futuro della televisione via cavo, vi è in quasi tutte le Nazioni europee una grande incertezza sugli orientamenti. Infatti, mentre negli Stati Uniti e nel Canada la televisione via cavo è gestita da imprese private, nei maggiori paesi europei si pensa di trovare delle formule di organizzazione che garantiscano il mantenimento del principio che la CATV è un servizio di interesse pubblico.

Anche se in generale solo adesso i paesi europei cominciano a pensare alla CATV con sistemi attivi (e cioè capaci di distribuire programmi propri), la Gran Bretagna ha già realizzato in questo campo due tipi di esperimenti molto importanti. Londra dispone da molti anni di un sistema di televisione didattica via cavo, che non ha equivalenti in altri paesi, gestita dall'Inner London Educational Authority (ILEA). Dal 1968 l'ILEA realizza delle trasmissioni didattiche in un proprio centro televisivo e ne assicura la distribuzione a 1.400 istituti di insegnamento per mezzo di una rete in cavo con 7 canali, realizzata dal Ministero delle Poste.

Nel 1972 il governo britannico ha poi accordato alcune licenze provvisorie a imprese private di CATV, autorizzandole a distribuire programmi originali. Queste licenze sono state concesse a scopo sperimentale e sono soggette a una regolamentazione particolareggiata e a una sorveglianza ministeriale molto stretta.

In Francia il Ministero PT e l'ORTF (l'ente televisivo nazionale) hanno fondato la Société Française de Télédistribution (SFT), incaricata di studiare le condizioni e le norme per l'impiego della televisione via cavo in Francia, e hanno creato il Centre Commun d'Études de Télévision et de Télécommunications per la ricerca nelle tecniche di supporto. La SFT ha in programma degli esperimenti concreti da effettuare, in zone limitate, con reti del tipo ‛sistema attivo', prima di prendere decisioni globali troppo impegnative per il futuro.

c) Enti e organizzazioni di ricerca sulle telecomunicazioni.

Negli Stati Uniti d'America le attività di ricerca nel campo delle telecomunicazioni sono molto avanzate e dovrebbero permettere a questo paese di conservare l'attuale posizione di avanguardia. 250 milioni di dollari all'anno vengono investiti dal Dipartimento della Difesa; 100 milioni all'anno dalla NASA e 400 milioni all'anno dai laboratori e dalle industrie del Bell System.

In Europa, le principali organizzazioni per le telecomunicazioni si sono consorziate nella Conferenza Europea per le Poste e Telecomunicazioni (CEPT). Inoltre i paesi della Comunità Economica Europea organizzano diverse attività tecniche e scientifiche nel quadro di un programma denominato COST. Fra le altre organizzazioni comunitarie europee sono da ricordare l'ESA (European Space Agency) per le ricerche sui satelliti e sui veicoli di lancio e l'EUROSAT, che è un consorzio d'industrie sorto con l'intento di effettuare la gestione dei sistemi spaziali dopo la fine della fase sperimentale. È prevista anche l'utilizzazione dei satelliti per la radiodiffusione televisiva per conto dell'EBU (European Broadcasting Union).

Nella maggior parte dei paesi europei l'indirizzo principale dei programmi di ricerca risiede nella commutazione semielettronica. In Francia e in Italia si studia la commutazione mediante la tecnica della modulazione a impulsi codificati (o PCM, da Pulse Code Modulation). Altri programmi di ricerca riguardano le guide d'onda per lunghezze d'onde millimetriche, le caratteristiche di propagazione delle onde in bande di frequenza oltre i 10 GHz, i ricetrasmettitori in microonde, i cavi coassiali, la televisione via cavo, la trasmissione di dati, i sistemi sottomarini, le stazioni radiomobili e gli apparati di ricezione periferica.

In breve, una rassegna della ricerca europea nel campo delle telecomunicazioni rivela che vi è nei piani lo sviluppo di sistemi che utilizzino totalmente la tecnologia digitale. Si stanno risolvendo molti problemi nati dallo studio di sistemi. I più importanti traguardi appaiono essere: a) la larga diffusione di servizi telegrafici d'avanguardia; b) la realizzazione di reti di distribuzione; c) lo sviluppo o la pianificazione di diverse reti sperimentali; d) l'accettazione unanime, in Europa, del concetto di servizi generali e di standardizzazione delle tecniche; e) l'attività del CENT nel campo della standardizzazione dei servizi offerti.

7. Prospettive future.

Si può prevedere che in futuro verranno ulteriormente sviluppati sia gli aspetti tecnici che quelli applicativi della televisione. È opportuno scindere questi due aspetti dell'evoluzione televisiva per un loro migliore inquadramento; va da sé che essi saranno comunque interagenti, nel senso che un'evoluzione tecnica spesso porta a un'evoluzione anche delle applicazioni e, viceversa, la necessità di nuove applicazioni spinge a trovare quelle soluzioni tecniche che le rendano possibili.

a) Innovazioni e perfezionamenti tecnici.

I perfezionamenti tecnici, alcuni dei quali stanno già uscendo dalla fase di studio e di ricerca per entrare nella fase di produzione e quindi in quella di utilizzazione, riguardano tutti gli aspetti e tutti i componenti della catena televisiva, dai sensori di immagine ai sistemi di trasmissione e a quelli di ricezione. Sono anche in studio alcune tecniche innovative, che hanno riscosso molto interesse e hanno avuto già applicazione in alcuni settori; tali tecniche, se potranno essere adottate sul piano pratico, porteranno a una vera rivoluzione nel campo della televisione consentendo anche immagini tridimensionali.

Nel campo dei sistemi di analisi dell'immagine sono stati proposti nuovi tubi da ripresa, compatti ed estremamente sensibili, per consentire il rilevamento di scene scarsamente illuminate; esistono sistemi per la ripresa notturna e altri, a raggi infrarossi, per immagini che non sono rilevabili dall'occhio umano.

Si possono citare ad esempio i tubi da ripresa con bersaglio a diodi al silicio in cui il fotomosaico che costituisce la superfice fotosensibile dei tubi da ripresa viene sostituito da una piastrina di silicio. Su questa piastrina (bersaglio), con tecniche fotolitografiche e di diffusione di impurità, comuni alla fabbricazione di altri componenti a semiconduttore, viene realizzato un elevato numero di fotodiodi (600.000) che agiscono da fotocellule elementari. Questa matrice di diodi viene poi scandita da un pennello elettronico analogo a quello degli altri tubi da ripresa.

Un nuovo dispositivo di ripresa, che già sta entrando in alcune applicazioni, è basato sulla tecnologia dei CCD (Charge Coupled Devices, dispositivi ad accoppiamento di carica). Questi dispositivi, che hanno struttura notevolmente semplice, sono autoscandenti e non richiedono un tubo catodico per la scansione, sono un risultato dell'elevatissimo sviluppo della tecnologia dei dispositivi allo stato solido e possono essere costruiti con procedimenti simili a quelli adottati nella fabbricazione di transistori e di circuiti integrati; la struttura microscopica delle numerose celle attive elementari, anche se più esasperata, è simile a quella dei circuiti integrati.

Il funzionamento di un sensore di immagini CCD è in linea di massima basato su questi principi: nel sensore, costituito da una piccola piastrina di silicio, esiste un grandissimo numero di celle che possono essere considerate allineate una di seguito all'altra se il sensore (sensore lineare) è costruito per analizzare una sola riga di immagine (o più righe in successione); le celle possono anche essere disposte secondo più allineamenti tra loro paralleli (sensore di area), venendo a costituire una matrice, se si prevede la scansione di un'intera immagine da parte di un unico sensore. Proiettando la luce sulla piastrina, in ogni cella viene a stabilirsi una carica elettrica proporzionale all'intensità della luce incidente su di essa. Quindi, se alle varie celle vengono applicati opportuni potenziali in sequenza idonea, è possibile provocare lo scorrimento di queste cariche da ogni cella alla cella contigua. Procedendo in questo scorrimento, al termine di ogni allineamento la carica perviene infine a un diodo di uscita che porta il segnale all'esterno. Su questo diodo perverranno quindi in successione tutti i raggruppamenti di cariche che si erano originate in ciascuna cella sotto l'effetto della radiazione luminosa. Quest'afflusso di cariche costituisce il segnale video.

I dispositivi di tipo CCD sono molto promettenti per gli indiscussi vantaggi che offrono: mancanza di sistema di scansione a pennello elettronico catodico, compattezza, piccolissime dimensioni, basso consumo e rumore di fondo, elevatissima sensibilità (che si traduce nella possibilità di riprese con tenue illuminazione), precisione nelle distanze tra singoli punti dell'immagine (che rendono particolarmente adatti questi dispositivi per riprese aerofotogrammetriche e da satelliti) e infine un costo limitato, quando la loro produzione potrà essere effettuata su grande scala.

Un funzionamento molto simile a quello dei CCD si ha in dispositivi basati su un principio detto bucket brigade.

Per quanto si riferisce ai sistemi di trasmissione sono in corso attive ricerche per una loro migliore utilizzazione e per l'adozione di nuove metodologie.

Le reti di trasmissione via cavo, che non hanno posto gravi problemi nella trasmissione unidirezionale, pongono serie difficoltà quando si tratta di trasmissione bidirezionale; particolarmente onerosi divengono allora i problemi di adattamento di impedenze e di schermatura nei riguardi delle interferenze. Le trasmissioni via cavo utilizzano, come portanti, frequenze molto più basse di quelle impiegate nella radiodiffusione. Una rete di cavi inserita nel tessuto cittadino ha molte probabilità di attraversare zone ad alta intensità di disturbo. Tenuto conto che i disturbi a radiofrequenza sono proprio localizzati nello spettro di frequenze utilizzabili per la trasmissione via cavo, è facile intuire le difficoltà che ne nascono; se poi gli adattamenti di impedenza non vengono perfettamente rispettati, si introducono degli squilibri nella rete, la quale viene a comportarsi come una grande antenna ricevente nei riguardi dei segnali interferenti irradiati dalle varie sorgenti; si noti ad esempio che sulla banda di frequenze cadono tutti i trasmettitori delle bande cittadine, degli amatori e delle comunicazioni terrestri. Le probabilità di disadattamenti d'impedenza sono molto elevate nei sistemi bidirezionali, in cui debbono essere previsti dei canali di ritorno per l'informazione. Sono in corso, in particolare negli Stati Uniti, ampie ricerche e prove sperimentali su vasta scala per superare questi problemi.

Rimanendo sempre nel settore delle trasmissioni via cavo, una prospettiva interessante è costituita dalla trasmissione dell'informazione via cavo ottico. Con questi cavi si realizza la trasmissione di un'onda elettromagnetica luminosa utilizzando un mezzo ottico invece che dei conduttori elettrici. Il sistema trasmittente è in genere costituito da un laser il cui fascio luminoso viene modulato in ampiezza e poi trasmesso, con opportuni accoppiamenti, attraverso il cavo costituito da sottili fibre ottiche, al posto ricevente. Esiste anche la possibilità di realizzare sistemi di amplificazione per compensare l'attenuazione che la radiazione ottica incontra nella trasmissione. Data la frequenza elevata dell'onda elettromagnetica impiegata si potranno realizzare comunicazioni a larga banda, esenti da interferenze di natura elettrica, che raccolgono un numero rilevante di canali di informazione.

Trasmissioni con portanti di natura ottica sono possibili anche con onde irradiate direttamente nello spazio libero tra posti fissi che abbiano distanze relativamente brevi, sfruttando le proprietà del laser di emettere fasci luminosi altamente collimati. Pur rimanendo nel campo delle radioonde tradizionali, sono stati iniziati esperimenti per utilizzare segnali di radiodiffusione a polarizzazione circolare, invece che lineare; ciò che potrebbe portare all'obsolescenza delle attuali antenne.

Nel quadro dell'evoluzione dei sistemi di trasmissione non può essere trascurato lo sviluppo che certamente avrà la trasmissione via satellite, sia per il previsto aumento del numero dei satelliti destinati a questo scopo, sia per i miglioramenti nelle tecniche di trasmissione. È nell'ambito di nuove tecniche di trasmissione che si tenta di inserire un nuovo sistema di modulazione del segnale portante. Con questo sistema si trasforma l'informazione (analogica) contenuta nel segnale e rappresentata dal suo livello, in un'informazione di tipo numerico, detta anche digitale, che può essere trasmessa adottando particolari sistemi di codificazione. Questa tecnica, identificata con la sigla PCM (Pulse Code Modulation), utilizza dei convertitori analogico-digitali che, dopo un processo di campionamento del segnale analogico, provvedono a quantizzarlo; un successivo sistema trasforma l'informazione proveniente dal convertitore in un'informazione codificata costituita da un insieme di impulsi.

È opportuno chiarire il significato del termine quantizzazione. Un segnale analogico è un segnale che può variare con continuità, assumendo cioè qualsiasi valore entro un intervallo predeterminato; quantizzare un segnale di questo tipo significa dividere l'intervallo in cui può sussistere il segnale in un numero q finito di incrementi (variabile con la precisione che si vuole ottenere) e attribuire al segnale un numero che sta a indicare entro quale dei q incrementi (quanti) viene a cadere il valore del segnale. In pratica due valori di segnale che, pur differendo tra loro leggermente, cadono nello stesso intervallo di quantizzazione hanno lo stesso numero; così facendo si commette un errore che può essere reso piccolo a piacere aumentando q (o, ciò che è lo stesso, riducendo l'ampiezza degli incrementi). Il processo avviene secondo il seguente schema: il segnale video viene campionato a frequenza costante da un circuito che ad istanti predeterminati assume e mantiene il valore del segnale per la durata del processo di campionamento. L'ampiezza di ogni campionamento viene quantizzata così da poterle assegnare un valore numerico. Il numero viene codificato associandogli un insieme di impulsi che lo identifica secondo diversi possibili codici, per esempio con la presenza o l'assenza di ogni singolo impulso nel caso di una codificazione in un sistema binario. Quanto più alto è il numero q di suddivisioni assunte per la quantizzazione, tanto più elevato è il numero di impulsi, o bits, da trasmettere per codificare i livelli. Con 4 bits per campionamento ad esempio è possibile individuare 16 diversi livelli o quanti, con 8 si hanno 256 livelli.

Gli impulsi che costituiscono il segnale codificato possono essere trasmessi con sistemi tradizionali al posto di ricezione. Nell'apparato ricevente è previsto un convertitore digitale-analogico che esegue un processo di conversione inverso rispetto a quello effettuato al posto di trasmissione; per ogni gruppo di impulsi, tenendo conto di quelli che sono presenti nella trasmissione e quelli che sono assenti (anche nei riguardi della loro sequenza), il convertitore trasforma l'informazione binaria, nella forma di codifica prescelta, in un segnale di livello che ricostruisce (a gradini, tanto più piccoli quanto più piccoli sono i quanti) il segnale analogico.

I vantaggi che la tecnologia digitale offre sono notevoli, anche se non è prevedibile, almeno nel prossimo futuro, una sua applicazione nel settore della telediffusione: occorrerebbe sostituire le centinaia di milioni di televisori già esistenti, che sono di tipo analogico. Inoltre il canale di informazione, per immagini di qualità accettabile, con la PCM viene ad avere una larghezza di banda enorme, pari a 10 canali televisivi normali.

Pur tuttavia per trasmissioni particolari la tecnica PCM si dimostra molto efficace. Con essa, infatti, la distorsione dei segnali è controllabile e trascurabile, dato che i segnali degradati possono venir rigenerati minimizzando l'effetto del rumore e della distorsione; la qualità di immagine è pertanto migliore. La trasmissione digitale è molto più affidabile di quella analogica se si adottano particolari codici ridondanti; con essa è più facile la conversione tra diversi standard internazionali, poiché i segnali digitali possono essere più facilmente manipolati e memorizzati.

Anche nel campo dei sistemi di ricezione il processo evolutivo è intenso. La complessità dei circuiti elettronici anche per un televisore monocromo è relativamente elevata. La moderna microelettronica tende a riunire in un unico componente integrato le funzioni che in altri tempi erano affidate a un grande numero di valvole elettroniche o, successivamente, di transistori. La scala di integrazione tende a divenire sempre più larga; dai primi componenti integrati a piccola scala (SSI), si è passati a quelli a media scala (MSI) e ora si sta sviluppando l'integrazione su larga scala (LSI). Ciò è avvenuto man mano che i processi produttivi si perfezionavano portando alla riduzione degli scarti che, per dispositivi complessi, rendevano antieconomico un ampliamento della scala di integrazione. All'aumentato numero di componenti integrabili su un'unica piastrina di silicio e al circuito integrato che ne nasceva venivano affidati compiti sempre più estesi e complessi. La televisione, e in particolare maniera gli apparati riceventi, non potevano non essere coinvolti in questa rivoluzione tecnologica. La conseguenza è che oggi in un moderno televisore a colori sono presenti diversi circuiti integrati, mentre i componenti singoli (discreti) sono in continua diminuzione.

Anche il numero di circuiti integrati tende a diminuire in conseguenza della maggior complessità e del maggior numero di funzioni svolte da ciascuno di essi. Questa riduzione si riflette anche sulla complessità dei cablaggi di interconnessione e sul numero di componenti ausiliari che debbono essere utilizzati. Il moderno televisore tende pertanto a divenire sempre più compatto, affidabile ed economico; la sua complessità rimane delimitata entro i vari circuiti integrati che sono però realizzabili con processi industriali per produzione di grandi serie.

Fin dagli inizi della televisione, all'attenzione dei progettisti si è imposto il problema delle dimensioni relativamente ingombranti del televisore. Queste dimensioni venivano a dipendere non tanto dal numero di componenti e dal loro ingombro, quanto dal cinescopio che per forma e dimensioni non consentiva la riduzione del volume dell'apparecchio.

Varie soluzioni sono state adottate con apprezzabili risultati, ma ancora non si può dire che in un televisore lo spazio venga completamente sfruttato.

La larghezza e l'altezza del cinescopio vengono praticamente a coincidere con quelle dell'immagine; per un televisore caratterizzato da un determinato schermo (la misura viene data in genere in base alla diagonale, misurata in pollici) non è quindi possibile ridurre le dimensioni in termini di larghezza e di altezza. L'unica misura su cui è possibile agire è pertanto la profondità. Per ridurre le dimensioni dei cinescopi si è seguita la strada dell'aumento dell'angolo di deflessione; si è passati così dagli angoli molto stretti dei primissimi tubi catodici ad angoli di 70°, poi di 90° e infine di 110°. Sono allo studio attualmente soluzioni più radicali per cinescopi di tipo piatto, anche abbandonando le soluzioni derivate dai tubi a raggi catodici. L'optoelettronica è il ramo dell'elettronica che si interessa di dispositivi che hanno a che fare contemporaneamente con i segnali elettrici e la radiazione luminosa. Vari tentativi sono in corso per realizzare cinescopi piatti e compatti ed è prevedibile che in futuro saranno coronati da successo; è pertanto probabile che la loro adozione, insieme a quella dei circuiti integrati, permetterà la realizzazione di televisori di profondità tanto ridotta da essere assimilabili per l'ingombro a veri e propri quadri. Tra le soluzioni proposte figurano i tubi a plasma, a matrici di diodi emettitori di luce (LED) e anche dispositivi a cristalli liquidi; soluzioni di questo tipo sono già state adottate per visualizzatori di informazioni con caratteri alfanumerici.

Una nuova tecnica che si è affacciata nel settore televisivo è quella basata sugli ologrammi. La sua applicazione è limitata, almeno per ora, a sistemi di registrazione di immagini. Anche se non si è ancora prospettata una vera e propria applicazione di tecniche olografiche alla televisione, in linea di principio sarebbe possibile realizzare una trasmissione di immagini tridimensionali. Una immagine olografica può essere ottenuta in base a questi principi: illuminando il soggetto da riprendere con luce coerente, quale può essere ottenuta da un laser, si ottiene per diffusione la sua immagine costituita da un fronte dell'onda elettromagnetica luminosa, che viene fatto incidere sulla superficie fotografica su cui deve essere ottenuto l'ologramma. Sulla lastra fotografica viene anche proiettata la luce direttamente prodotta dal sistema laser. Le onde luminose provenienti dalle due direzioni, e cioè dal laser e dalla diffusione provocata dal soggetto, interferiscono tra loro dando luogo a un'immagine di interferenza che costituisce appunto l'ologramma (v. olografia). Nell'ologramma vengono registrate le informazioni di ampiezza e di fase del fronte d'onda incidente. Se un ologramma viene osservato direttamente, in esso non si riscontra nulla del soggetto originario. Illuminando l'immagine olografica con luce coerente, in sede di riproduzione si viene a ricostruire il fronte d'onda originario e quindi l'occhio dello spettatore, che viene investito da questo fronte d'onda, ‛vede' il soggetto della registrazione con un'immagine che, essendo associata a un fronte d'onda luminosa uguale a quello che si aveva nella visione diretta del soggetto, conserva tutti gli aspetti della visione originaria tra cui il senso del rilievo (immagine tridimensionale). Per il momento però l'immagine olografica viene utilizzata solamente per realizzare dei sistemi di registrazione di basso costo che non danno immagini tridimensionali. In ogni caso anche gli studi per questa applicazione rimangono nella fase sperimentale.

b) Future applicazioni della televisione.

Non è possibile prevedere ed elencare tutte le future applicazioni della televisione, anche perché essa è già entrata, sia pure in forma sperimentale, in moltissimi campi, e sarebbe forse più corretto parlare di perfezionamenti delle varie applicazioni nonché di una loro maggiore diffusione.

Uno dei campi in cui la televisione porterà rilevanti novità rimane quello della diversificazione dell'uso dei televisori casalinghi. Attualmente si sta sempre più sviluppando il criterio di considerare il televisore come un dispositivo che offre le possibilità di molteplici usi, anche diversi da quello fondamentale connesso alla ricezione dei programmi radiodiffusi. Già nella CATV esso viene considerato come il terminale della trasmissione via cavo, ma si prevede l'estensione anche ad altre applicazioni che ne potrebbero fare un polo per molte attività nell'ambito familiare e professionale.

È ormai largamente diffuso l'uso dei videogiochi che sono in continua evoluzione; grandi complessi industriali si stanno occupando del loro sviluppo, interessando via via anche il mondo degli adulti, oltre che quello dell'infanzia. Infatti dai primi dispositivi che consentivano solo dei giochi semplici, si è giunti a sistemi che incorporano dei microcalcolatori e che si stanno sviluppando come dispositivi intelligenti capaci di dialogare con l'utilizzatore e offrire una vasta gamma di giochi, spesso evoluti, e anche applicazioni di tipo didattico.

Il normale apparato televisivo può anche essere utilizzato, unito a una telecamera e a un videoregistratore, per sostituire la ripresa cinematografica in campo dilettantistico.

Probabilmente però la potenziale capacità del mezzo televisivo potrà realizzarsi solo il giorno in cui sarà possibile realizzare delle complesse reti di cavi di comunicazione bidirezionale, trasformando il televisore in un videoterminale, magari utilizzando contemporaneamente le reti televisive e quelle telefoniche per l'informazione di ritorno. Sarà allora possibile, formando un numero come in un comune sistema telefonico, collegarsi con vari locali di spettacolo delle città, con centri scientifici per assistere a conferenze e a programmi speciali diversi da quelli normalmente radiodiffusi, collegarsi con centri scolastici e universitari per assistere alle lezioni, utilizzando poi il canale telefonico per comunicare con gli insegnanti.

Un'applicazione importante sarà data dalla possibilità di collegarsi con centri di calcolo ed elaborazione cittadini che potranno essere di ampia utilità a professionisti nell'esercizio della loro attività, ma anche alle massaie per ottenere informazioni varie. I medici potranno accedere attraverso questi mezzi al calcolatore per avere un valido sostegno nell'effettuare le loro diagnosi e anche nella prescrizione delle cure; gli ingegneri potranno comodamente accedere a sistemi di calcolo utilizzando lo schermo televisivo come display sul quale potranno apparire, con caratteri alfanumerici o con grafici, le soluzioni ai loro problemi. Naturalmente queste reti di cavi consentiranno anche di svolgere attività più strettamente professionali, quali interconnessioni fra banche per le verifiche di crediti e tra vari centri commerciali e pubblici.

Un'altra applicazione del televisore domestico come videoterminale è quella della trasmissione di giornali. In Inghilterra (e di recente anche in Francia), per esempio, è già previsto un sistema di trasmissione sperimentale denominato Teletext. Con questo nome viene indicato un sistema che consente all'utilizzatore di richiedere la trasmissione di pagine di caratteri alfanumerici attraverso un normale canale televisivo, utilizzando l'intervallo di ritraccia delle varie righe di scansione, senza interferire con la normale trasmissione dell'immagine. I caratteri vengono a costituire una pagina di 24 righe di 40 caratteri ciascuna. La trasmissione viene effettuata con impulsi che vengono memorizzati in un apposito convertitore in modo che l'immagine intera, una volta completata, possa essere sintetizzata sullo schermo. Con questo sistema possono essere trasmesse 4 pagine al secondo e l'utilizzatore può captare attraverso un idoneo sistema le pagine di suo interesse.

Nel campo del videotelefono si prevede uno sviluppo notevole, sempre collegato, però, a quello di idonee reti di cavi. Per il videotelefono, tuttavia, si prospettano anche soluzioni diverse, data la minore larghezza di banda richiesta. Infatti la qualità di immagine può essere inferiore a quella delle normali trasmissioni video e si prevede di lasciare all'utente la scelta tra la ricezione di immagini fisse, a scansione lenta e alta definizione per la trasmissione di facsimile e dati, e quella di immagini in movimento a bassa definizione. È comunque da tener presente che gli attuali sistemi di videotelefoni, pur con immagini di limitata risoluzione, come il Picturephone della ATT, richiedono un apposito canale di trasmissione in conseguenza della banda passante di 1 MHz, molto ampia se comparata ai 3 kHz consentiti da un normale canale telefonico.

(J. B. L. Manniello è autore dei paragrafi e ed f del capitolo 5 e del capitolo 6).

Bibliografia.

Banfi, A., Radiotelevisione, Milano 1934.

Bennet, W. R., Davey, I. R., Data transmission, New York 1965.

Cajoni, E., Televisione, Napoli 1945.

Castellani, A., Analizzatori elettronici per televisione, in ‟Radio e televisione", 1938.

Castellani, A., Trattato di televisione moderna, Milano 1954.

C.C.I.R., Green book, Document of the 11th Plenary Assembly International Radio Consultative Commitee, vol. V, sec. E4, 1971.

Chauvierre, M., La télévision, Paris 1937.

Dobriner, R., Vladimir Zworykin, the man who was sure TV would work, in ‟Electronic design", 1977, XXV, pp. 112-115.

Fink, D. G., Principles of television engineering, New York 1940.

Fink, D. G., Electronics engineers' handbook, New York 1975.

Günther, H., Das grosse Fernsebuch, Berlin 1939.

Hermandiquer, P., La télévision et ses progrès, Paris 1937.

McIlwain, K., Dean, C. E., Principles of color television, New York 1956.

Mertz, P., Gray, E., A theory of scanning and its relations to the characteristics of the transmitted signal in telephotography and television, in ‟Bell system technical journal", 1934, XIII, pp. 464-515.

Montù, E., Televisione, Milano 1952.

Pattini, F., Evoluzione e caratteristiche delle comunicazioni via satellite, in ‟Elettronica oggi", 1978, n. 11, pp. 141-154.

Pritchard, W. L., Gould, R. G., Steiner, R. O., Communications satellite system worldwide 1975-1585, Dedham 1975.

Runyon, S., Television, in ‟Electronic design", 1977, XXV, pp. 70-79.

Schröter, F., Fernsehn, Berlin 1937.

Withers, D. J., Gleadle, G. H. M., Allocation of radio frequencies for satellite communication services, in ‟Post office electrical engineers' journal", 1972, LXV, pp. 41-42.

Zworykin, V. K., Morton, G. A., Television, New York 1940.

TAG

Unione internazionale delle telecomunicazioni

Multiplazione a divisione di tempo

Convertitore digitale-analogico

Satellite per telecomunicazioni

Principio di sovrapposizione