
Il pollice è un’unità di misura della lunghezza, che vale 2.54 cm, ed è in uso principalmente nei paesi anglosassoni dove viene chiamato inch, ma viene usata in tutto il mondo per misurare gli schermi di dispositivi elettronici come TV, smartphone e PC. Vediamo perché e come si fanno le conversioni da pollici a centimetri e vice versa.
Quanti centimetri è un pollice: il calcolo con la formula
Il pollice (inch), che è la dodicesima parte del piede, vale 2.54 centimetri e si indica con un doppio apice (10 pollici si scrivono 10″), di conseguenza per convertire da pollici a centimetri bisogna moltiplicare per il fattore di conversione 2.54 secondo la formula
misura in cm = misura in pollici × 2.54 .
Ad esempio per determinare a quanti centimetri corrispondono 10″ calcoliamo 10 × 2.54 ottenendo 25.4cm. Al contrario per convertire da centimetri a pollici dobbiamo dividere per 2.54, secondo la formula
misura in pollici = misura in cm / 2.54
Quindi per scoprire a quanti pollici corrispondono 10 cm basta dividere per 2.54, quindi 10cm=10/2.54 ovvero circa 3.94 pollici.
Per convertire da pollici a cm e vice versa si usa il fattore di conversione 2.54, che non è un numero comodissimo se dobbiamo fare i calcoli senza calcolatrice, ma se ci accontentiamo di una conversione approssimata c'è un modo veloce per farla a mente. Il trucco sta nell'approssimare il fattore di conversione a 2.5, che è la metà di cinque, e procedere come segue:
- per convertire da pollici a cm moltiplichiamo per 5 e poi dimezziamo, ad esempio per convertire 30″ calcoliamo 30×5=150 e dimezziamo ottenendo il valore approssimato di 75cm
- per convertire da cm a pollici dividiamo per 5 e raddoppiamo, ad esempio per convertire 30cm calcoliamo 30:5=6 e poi raddoppiamo ottenendo il valore approssimato di 12″
Nell'esempio abbiamo convertito 30″ approssimativamente in 75cm, un numero inferiore ai 76.2 cm a cui corrispondono effettivamente 30″, non è un risultato esatto, ma è un’approssimazione più che sufficiente se dobbiamo stimare a spanne le dimensioni di una TV.
Perché i pollici si usano per misurare gli schermi della TV
Ma perché in tutto il mondo si usano i pollici per misurare le televisioni nonostante il Sistema Internazionale preveda il metro ed i centimetri per misurare le lunghezze? Il motivo è essenzialmente di tipo storico in quanto l'invenzione della televisione è avvenuta negli anni venti del 20° secolo principalmente negli USA, con qualche contributo anche dalla Gran Bretagna, e per inventori come lo scozzese John Logie Baird e lo statunitense Philo Farnsworth era naturale usare il pollice come unità di misura. In sostanza sin dalla realizzazione e dalla commercializzazione delle prime TV a tubo catodico si è affermata una consuetudine, quella di misurare gli schermi in pollici, che è rimasta in vigore nel corso dei decenni estendendosi ad altri dispositivi elettronici dotati di schermo, come PC e smartphone.
Questa consuetudine non è comodissima per noi che siamo abituati a ragionare in metri e centimetri ma, come abbiamo visto, possiamo sempre ricorrere ad una veloce conversione approssimata se dobbiamo stimare a spanne le dimensioni di una TV.