Kompiuteriai konvertuoja tekstą ir kitus duomenis į dvejetainį, naudodami priskirtą ASCII reikšmę. Kai žinoma ASCII vertė, vertė gali būti konvertuojama į dvejetainį. Toliau pateiktame pavyzdyje mes paimame žodį „ viltis“ ir parodome, kaip jis konvertuojamas į dvejetainį, kurį kompiuteris supranta.
Paimkime pirmąjį simbolį h ir suskaidykite procesą. Kai klaviatūroje įrašoma raidė h (mažosiomis raidėmis), į kompiuterį įvedamas signalas. Kompiuteris žino, kad ASCII standartinė vertė h yra 104, kurią kompiuteris gali konvertuoti į dvejetainę vertę 01101000 . Po to, kai h yra konvertuojamas į dvejetainį, kompiuteris gali saugoti ir apdoroti duomenis kaip nulius.
Laikant šiuos duomenis, kiekvienas simbolis užima 8 bitus (1 baitą), o tai reiškia, kad reikia išsaugoti viltį kaip paprastą tekstą, tai užtruks 4 baitus arba 32 bitus.
Kaip kompiuteris konvertuoja dvejetainį tekstą?
Kai kompiuteris turi konvertuoti dvejetainius duomenis atgal į žmogaus skaitymo tekstą, tai yra prieš tai buvusio proceso atvirkštinė dalis. Pavyzdžiui, kompiuteris gali konvertuoti dvejetainį 01101000 į dešimtainę vertę 104, kurią jis žino, yra raidė h, naudojant ASCII standartinę konversiją. Taigi, kompiuterio monitoriuje matote raidę „h“.