Det där med strömmen är ju korrekt, såtillvida att den ligger på 50Hz här, och exempelvis 60Hz i USA, tv-frekvensen anpassades efter detta för att undvika störningar, vilket hade kunnat bli resultatet om TV- och elnät körde på olika frekvenser (idag är det ett mindre problem). Grejen med 100Hz-TV är mycket riktigt att den uppdateras dubbelt så ofta, varje bild ritas två gånger.
Eftersom den analoga TV-standarden vi har i Europa använder interlace-teknik (radsprång på svenska), så är varje bild uppdelad i två delbilder, där bara varannan rad på skärmen ritas ut. I praktiken har vi 25 bilder per sekund, som sen ritas ut med omväxlande udda och jämna rader/linjer, vilket gör 50 delbilder per sekund. Detta blir mycket flimrigt, speciellt vid ljusstarka bilder. Om man istället ritar upp varje delbild 2 gånger, vilket blev möjligt genom att digitalt lagra bilden i ett datorminne i TVn, så får man en mycket stabilare bild. Beroende på om det är mycket eller lite rörelse i den aktuella bilden (TV-studio eller sport exempelvis) kan moderna 100Hz TV-apparater välja om de ska rita upp bilderna med udda-udda-jämn-jämn linjer eller udda-jämn-udda-jämn, eller genom att kombinera udda och jämna linjer digitalt och sen rita upp dem samtidigt. Jag är så fräck att jag påstår att dessa 100Hz-apparater fortfarande är de som ger bäst bild för vanliga TV-program, platt-TV är inte lika bra...
Nu förklarar jag dåligt. Men den som vill kan sätta ner sin datorskärm till 60Hz, så får ni se flimmer

Datorskärmen är dock inte interlace. Normalt vill man ha över 80Hz på en datorskärm. (Gäller 'tjock-skärmar' med bildrör)
Om jag minns rätt så spelas vanliga filmer in i 24 bilder per sekund, på biografen visas sedan varje bild 3 gånger för att nå upp till 72Hz, och en ganska flimmerfri bild. Jag tycker dock att filmer idag borde spelas in i minst 50 bilder per sekund och sen visas i 100Hz...he...har tyckt så sedan jag var tonåring men få tycks hålla med, det är ljud som har prioriterats framför bild på biograferna på senare tid :/