var fset …
const special …
const literal …
const operator …
const keyword …
func tokenclass(tok token.Token) int { … }
type elt …
var tokens …
const whitespace …
var source …
func newlineCount(s string) int { … }
func checkPos(t *testing.T, lit string, p token.Pos, expected token.Position) { … }
func TestScan(t *testing.T) { … }
func TestStripCR(t *testing.T) { … }
func checkSemi(t *testing.T, input, want string, mode Mode) { … }
var semicolonTests …
func TestSemicolons(t *testing.T) { … }
type segment …
var segments …
var dirsegments …
var dirUnixSegments …
var dirWindowsSegments …
func TestLineDirectives(t *testing.T) { … }
func testSegments(t *testing.T, segments []segment, filename string) { … }
var invalidSegments …
func TestInvalidLineDirectives(t *testing.T) { … }
func TestInit(t *testing.T) { … }
func TestStdErrorHandler(t *testing.T) { … }
type errorCollector …
func checkError(t *testing.T, src string, tok token.Token, pos int, lit, err string) { … }
var errors …
func TestScanErrors(t *testing.T) { … }
func TestIssue10213(t *testing.T) { … }
func TestIssue28112(t *testing.T) { … }
func BenchmarkScan(b *testing.B) { … }
func BenchmarkScanFiles(b *testing.B) { … }
func TestNumbers(t *testing.T) { … }