Solution Manual for Computer Organization &
Architecture Themes and Variations, 1st Edition
install download
https://testbankmall.com/product/solution-manual-for-computer-
organization-architecture-themes-and-variations-1st-edition/
Download more testbank from https://testbankmall.com
Instant digital products (PDF, ePub, MOBI) available
Download now and explore formats that suit you...
Solution Manual for Computer Organization and
Architecture, 11th Edition, William Stallings
https://testbankmall.com/product/solution-manual-for-computer-
organization-and-architecture-11th-edition-william-stallings-2/
testbankmall.com
Computer Organization and Architecture 10th Edition
Stallings Solutions Manual
https://testbankmall.com/product/computer-organization-and-
architecture-10th-edition-stallings-solutions-manual/
testbankmall.com
Computer Organization and Architecture 10th Edition
Stallings Test Bank
https://testbankmall.com/product/computer-organization-and-
architecture-10th-edition-stallings-test-bank/
testbankmall.com
Solution manual for Supply Chain Logistics Management
Bowersox Closs Cooper 4th edition
https://testbankmall.com/product/solution-manual-for-supply-chain-
logistics-management-bowersox-closs-cooper-4th-edition/
testbankmall.com
Solution manual for Intermediate Accounting Kieso Weygandt
Warfield Young Wiecek McConomy 10th Canadian Edition
Volume 1
https://testbankmall.com/product/solution-manual-for-intermediate-
accounting-kieso-weygandt-warfield-young-wiecek-mcconomy-10th-
canadian-edition-volume-1/
testbankmall.com
Basic Statistics for Business and Economics Canadian 5th
Edition Lind Solutions Manual
https://testbankmall.com/product/basic-statistics-for-business-and-
economics-canadian-5th-edition-lind-solutions-manual/
testbankmall.com
Test Bank for Advanced Accounting, 14th Edition, Joe Ben
Hoyle, Thomas Schaefer, Timothy Doupnik
https://testbankmall.com/product/test-bank-for-advanced-
accounting-14th-edition-joe-ben-hoyle-thomas-schaefer-timothy-doupnik/
testbankmall.com
Test Bank for Financial Accounting in an Economic Context,
10th by Pratt
https://testbankmall.com/product/test-bank-for-financial-accounting-
in-an-economic-context-10th-by-pratt/
testbankmall.com
Test Bank Fundamentals Nursing Care Skills 2nd Edition
Ludwig Burton
https://testbankmall.com/product/test-bank-fundamentals-nursing-care-
skills-2nd-edition-ludwig-burton/
testbankmall.com
Test Bank for Marketing, 15th Edition, Roger Kerin, Steven
Hartley
https://testbankmall.com/product/test-bank-for-marketing-15th-edition-
roger-kerin-steven-hartley/
testbankmall.com
2
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
4. Why is the performance of a computer so dependent on a range of technologies such as semiconductor,
magnetic, optical, chemical, and so on?
SOLUTION
Consider a computer’s memory that uses the widest range of technologies. In an ideal world, a computer would
have a large quantity of low‐cost, very fast, non‐volatile memory. Unfortunately, fast memory such as DRAM is
expensive and volatile. Non‐volatile memory such as magnetic disk is (usually) slow and cheap. Real computers
use a combined memory system that makes the computer appear as if it really did have fast, cheap non‐volatile
memory. That is, by combining memories fabricated with different technologies, the computer manufacturer
can hide the negative characteristics of specific technologies.
3
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
The fastest memory is cache (usually fast static semiconductor RAM) used to hold frequently‐used data. The
bulk of the immediate access memory is normally DRAM (typically 4 Gbyte today). This semiconductor dynamic
memory holds data and working programs, but is volatile and DRAM must be loaded from disk. A hard disk that
stores data by magnetizing the surface of a platter holds programs that are archived and that have to be loaded
when the user requires them. The hard disk drive is very slow but non‐volatile.
Flash memory is non‐volatile semiconductor memory used to hold semi‐fixed data (e.g., the BIOS) and CD/DVD
is optical memory designed to allow interchangeable media.
Semiconductors themselves are the result of complex technological processes. Even the structure and chemical
composition of transistors change. New materials are constantly emerging for use in display systems.
5. Modify the algorithm used in this chapter to locate the longest run of non‐consecutive characters in the string.
SOLUTION
At any instant you are either in a run of consecutive elements or you are not. If the current element differs from
the previous element, you are in a run of non‐consecutive elements so you increment the counter and
continue. If the current element is the same as the previous element, you are no longer in a sequence of non‐
consecutive elements and you clear the non‐consecutive element counter.
The following presents the code both as ARM assembly language and pseudocode (to the right of the semicolons).
START
AREA NonSequential, CODE, READONLY
ADR r8,Sequ ;Point to sequence
MOV r1,#0xFF ;Dummy old element ($FF is not a legal element)
MOV r3,#1 ;Preset longest non-sequential element length to 1
MOV r2,#1 ;Preset current non-sequential element length to 1
Rep LDR
CMP
r0,[r8,#4]!
r0,#0xFF
;Repeat: read element and point to next
; If terminator
BEQ Exit ; THEN exit
CMP
BEQ
ADD
r1,r0
Same
r2,r2,#1
;Are new and
;If not same
the last element the same?
THEN increment non-sequential counter
MOV r1,r0 ;Old element becomes new element
CMP r3,r2 ;Compare current sequence length with highest
BGE
MOV
B
Rep
r3,r2
Rep
;
;
;
IF lower than or same repeat (goto line ‘Rep’)
ELSE save new longest run
and repeat
Same MOV r2,#1 ;Clear current not-in-sequence count
B Rep ; then repeat
Exit B Exit ;Termination point
Sequ DCD 1,2,3,3,3,2,2,4,5,3,2,1,1,1,1,1,4,0xFF ;List for testing
END
6. I was once criticized for saying that Charles Babbage was the inventor of the computer. My critic argued that
Babbage’s proposed computer was entirely mechanical (wheels, gears, and mechanical linkages) and that a real
computer has to be electrical. Was my critic correct?
SOLUTION
I believe not.
4
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
There is no fundamental rule that states that a machine such as a computer must have a preferred
embodiment. A computer can be mechanical, electronic, quantum mechanical, biological, or chemical. What is
required to implement a computer (as we understand the term) is a means of:
• storing information (memory),
• reading information from memory,
• decoding the information,
• executing the instructions corresponding to this information,
• writing back the information.
Moreover, for a computer to perform general‐purpose tasks, it must be capable of conditional behavior; that is,
the result of one operation must select between two or more alternative courses of action. Otherwise, the
computer would always execute the same sequence of operations irrespective of the data.
Of course, a practical computer cannot be mechanical because of the slowness of moving parts compared to
electrons in solids. However, one day mechanical computer may be created by using movement at the atomic
level (e.g., changing the position of atoms in a crystal or moving nanotubes).
7. What is the effect of the following sequence of RTL instructions? Describe each one individually and state the
overall effect of these operations. Note that the notation [x] means the contents of memory location x.
a. [5] ← 2
b. [6] ← 12
c. [7] ← [5] + [6]
d. [6] ← [7] + 4
e. [5] ← [[5] + 4]
SOLUTION
[5] ← 2 The value 2 is loaded into (memory) location 5
[6] ← 12 The value 12 is loaded into location 6
[7] ← [5] + [6] The sum of the contents of locations 5 and 6 are loaded into location 7. In this case, the value
2 + 12 = 14 is loaded into location 7
[6] ← [7] ‐ 9 The contents of location 7 (i.e., 14) minus 9 are loaded into location 6; that is, location 6 is
loaded with 5.
[5] ← [[5] + 4] The contents of location 5 are read and then 4 is added to the result. This new value (i.e., 2 +
4 = 6) is loaded into memory location 5. The contents of 6, i.e., 5, are loaded into location 5.
At the end of this code fragment [5] = 5, [6] = 5, [7] = 14
8. What are the differences between RTL, machine language, assembly language, high‐level language, and
pseudocode?
SOLUTION
RTL (register transfer language) is an algebraic notation used to define machine‐level operations such as the
transfer of data between registers. Consider the notation:
[r6] ← [r3] + 4
This means that the contents of register r3 are read and 4 added to that value. The total is then copied into
register r6.
5
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
Machine language is the actual binary code executed by a computer. For example, the binary sequence
1100101000000001 might mean increment the contents of register r1. However, this meaning would apply only
to a specific computer.
Assembly language is the human‐readable form of machine language; that is, it is a representation of machine
language in terms of mnemonics; for example, in a specific assembly language, MOVE.B D3,(A4) means add
the byte pointed at by register A4 to the contents of register D3. However, an assembly language normally has
special or additional features that make it easier for a programmer to generate code (e.g., the ability to
integrate libraries of functions in a program).
High‐level language is a computer language that has been designed to facilitate programming. There is no link
between a high‐level language and the underlying machine code. (However, it would be possible to design a
specific architecture that executed a high‐level language directly). All programs written in high‐level languages
have to be compiled into machine code prior to execution (or interpreted line‐by‐line by an interpreter during
execution). Typical high‐level languages are C, Java, LISP, and Python.
Pseudocode is an informal high‐level language used by programmers to express algorithms. Pseudocode is
often a sequence of operations expressed in almost plain English. For example:
Repeat
Add a new number to the total
Until all numbers have been added
9. What is a stored‐program machine?
SOLUTION
A stored program or von Neumann machine is a general‐purpose digital computer that stores programs and
data in the same memory. Instructions are processed in a two‐phase cycle called fetch and execute; that is, the
instruction pointed at by the program counter (also called the instruction pointer) is read from memory,
fetched into the computer, decoded, and then executed. Since an instruction might be of the form LOAD X or
STORE Y, or ADD Z,5, a second memory access may take place to read or write to the operand in memory.
10. I would maintain that conditional behavior is the key element that makes a computer a computer. Conditional
behavior is implemented at the machine level by operations such as BEQ XYZ (branch to instruction XYZ) and
at high‐level language level by operations such as IF x == y then do THIS else do THAT. Why are
such conditional operations so necessary to computing?
SOLUTION
Without conditional behaviour, each program would consist of a sequence of operations that were always
executed in the same way every time the program was run. For example; you could build a computer to
evaluate π to 50 decimal places by using a sequence of arithmetic operations without conditional operations.
Conditional operations allow a computer to change the sequence of operations it will execute, according to the
outcome of a test. For example, when simulating a game of chess, a computer may first move each chess piece
onto a different square and then evaluate the goodness or figure of merit of that position. That calculation can
be done without conditional behavior. Suppose at a given stage of play there are seven possible moves, and the
figures of merit of the moves are 2, ‐3, ‐10, 20, 1, 0, 9 with the highest number signifying the best. In this case
the computer would select the move with the figure of merit 20 as best and then continue from that point. It is
this conditional behavior that gives the computer its great power.
6
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
11. What are the relative advantages of one‐address, two‐address, and three‐address computer architectures?
SOLUTION
From a programmer’s point of view the difference is between elegance and verbosity. For the purpose of this
question we will assume that an address refers to a location in memory (I make this point because you could
also regard a register as an address, for example, r3, r5, r12).
A three‐address machine allows you to specify three operands in a single instruction, which lets you implement
an operation like P = Q + R in the form ADD P,Q,R. Here, P, Q, and R are the three addresses of the three
operands in memory (or they could be registers). Such an instruction would access memory three times during its
execution phase.
A one‐address machine specifies only one address, which means that all operations must take place between
the contents of a memory location and an implicit internal register (sometimes called the accumulator). To
execute P = Q + R we would force you to write something like
LDA P ;Load accumulator with P
ADD Q ;Add Q to P in the accumulator
STA R ;Store accumulator in R
This is inelegant code and the accumulator is a bottleneck because you have to keep loading and storing as all
data goes through the accumulator.
A two‐address machine allows you to specify two operands, which means that one operand acts as a source
that is overwritten by the result. For example, ADD P,Q adds P to the contents of Q. The old contents of Q are
lost.
Although there are no three‐memory‐address machines, RISC processors like MIPS or ARM use a three‐address
instruction format and specify three registers, for example, ADD r1,r2,r3.
Most real computers fall into one of two categories; those that have three register addresses (like ARM and MIPS),
and those that have two addresses (like Intel’s IA32 architecture). Three‐address machines must also provide two
memory access instructions, load and store, that transfer data between registers and memory.
Some two‐address computers are called one and a half address machines because they use one memory
address and one register address. You could say that such a machine is essentially a one‐address machine with
multiple accumulators (e.g., Intel’s IA32 series).
One‐address machines are simple devices and are implemented as 8‐bit microcontrollers in low‐cost applications.
This course does not deal with these devices.
The relative advantages of two‐ and three‐address machines are debatable and both processor architectures
continue to thrive. Some would argue that a three‐address (RISC‐style) processor should be faster than a two
address machine because all data processing operations are applied to registers that have a far faster access time
than memory.
12. What is the difference between a computer’s architecture and its organization?
SOLUTION
A computer’s architecture is an abstraction; that is, it is the assembly language programmer’s view of the
computer in terms of its instruction set. A knowledge of a computer’s architecture is necessary to write
(machine‐level) programs that run on the computer.
7
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
A computer’s organization is the actual organization or structure of the hardware that implements the
architecture. Any given architecture can be implemented by many different computer organizations. A computer’s
organization determines its price‐to‐performance ratio. In short, architecture tells us what a computer does and
organization tells us how it does it. Today, the term microarchitecture is sometimes used in place of organization.
13. Can you think of other systems besides computers that may be said to have both an architecture and an
organization?
SOLUTION
The clock or watch falls into this category. Its architecture is determined by its dial and functions (date,
stopwatch etc.). Its organization determines how it calculates the time; for example, mechanical clockwork,
analog electronics driving a stepper motor to move the hands, or digital electronics.
Automobiles are another example: some automobiles have identical functionalities. However their organization
(gasoline or diesel, turbocharged or normally aspirated engine) determines their size, speed, and price.
14. What is the difference between an exo‐ and an endo‐architecture?
SOLUTION
Dasgupta popularized the terms exo‐architecture and endo‐architecture. The exo‐architecture of a computer is
the external view (or black box view) of its architecture. The endo‐architecture is a description of a computer’s
architecture at the level of its implementation. For example, the exo‐architecture refers to the add instruction
and the endo‐architecture refers to what an adder does. These two terms correspond to ‘architecture’ and
‘organization’ as used in this text.
15. Over the years, has more computer progress been made in computer architecture or computer organization?
SOLUTION
It is difficult to precisely quantify progress in these two aspects of the computer. The question should be
interpreted to mean greater relative progress. It appears to me that greater progress has been made in the area
of organization rather than in architecture. For example, the programmer’s model of Intel’s IA32 architecture
has not changed greatly since the 80386. However, the performance of this family has changed massively in the
same period. Much of this performance is due to technological advances in manufacturing, and in organization
(e.g., the use of on‐chip cache memory, pipelining, branch predication, parallel processing, and so on).
16. What is the semantic gap and what is its importance in computer architecture? You will need to use the
Internet or library to answer this question.
SOLUTION
Humans write code in high‐level languages like C and Java. Computers execute code in low‐level languages like
the Intel IA32 instruction set. The compiler translates a high‐level language into low‐level language (in machine
code form) that can run on an actual processor. The difference between high‐ and low‐level languages is called
the semantic gap. If a computer were constructed that directly executed C code, then there would be no semantic
gap.
7
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
17. What is the difference between human memory and computer memory?
SOLUTION
A computer’s random access memory is normally accessed by applying an address to interrogate the contents
of a specific location within the memory. Human memory appears to be associative. That is, it is searched by
providing data as a key rather than address. Memory cells containing that key then respond. For example, the key
might be “red” and responses might be “sunset”, “color”, “rainbow”, and so on.
Associative memory is accessed in parallel with a key that is fed to all locations simultaneously. In other words,
you access associative memory rather like a web search, by means of a query. Currently, we cannot construct
large semiconductor associative memories, because it would mean accessing millions of locations
simultaneously and matching the contents of each location with the key. Associative memory is also called CAM
(content accessible memory). Small amounts of associative memory are used in specialized applications such as
high‐speed address translation in memory management units.
18. What is the von Neumann bottleneck?
SOLUTION
The von Neumann machine operates in a fetch/execute cycle with a common memory holding both instructions
and data. This means that memory must be accessed (typically) twice for each instruction – once to read the
instruction and once to access the operand used by that instruction. Consequently, the path between the
computer and memory becomes a bottleneck. The use of separate data and instruction caches can help
overcome some effects of the bottleneck.
19. Suppose Intel did not develop the first microprocessor. Was the microprocessor inevitable?
In my view yes. At the time microprocessors appeared, everything that was needed was in place: microtechnology
and semiconductor manufacturing were growing, the computer and minicomputer existed, calculators existed.
Small and medium‐scale logic elements were being produced. There was a need for the microprocessor. All these
factors made the microprocessor inevitable.
SOLUTION
20. Identify as many enabling technologies as you can that were required before the computer could be
constructed.
SOLUTION
In order to design a mechanical computer of the type envisaged by Babbage, you need chemistry and
metallurgy to create the working parts (moving cog wheels and levers and linkages), and engineering
technology to create the machines required to build the computer.
For an analog computer you need the development of the theory of electronics, the construction of active
(amplifying) devices such as vacuum tubes and transistors, and the availability of components such are
resistors, capacitors, inductors, diodes, etc., that are the basic elements of all analog circuits.
For the construction of electromechanical computers (i.e., those using relays) you need some of the same
components as general analog circuits plus relays that require the construction techniques of the watch‐maker
(a relay has moving marts actuated by electromagnets).
For the construction of the electronic digital computer, you need the development of active devices (vacuum
tubes or transistors) that can be used to make gates and bistable elements (flip‐flops). Of course, to construct
practical computers, you need to develop a wide range of technologies: electronics to process signals and
8
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
transmit data from point‐to‐point over both short and long distances. You need the development of magnetic
and optical technologies as these form the basis of many storage systems. You need the development of display
technologies (the CRT, LCD, printer, and so on). Note that many of the technologies are ‘universal’ in the sense
that using a technology in one field means that it can be applied in other areas; for example, the technology
used to build a CPU is almost identical to that used to create an LCD display.
I asked this question because some introductory texts on computer architecture and organization seem to
imply that the computer suddenly emerged. The typical discussion of computers goes something like ...abacus...
Babbage analytical engine … ENIAC… PC.
In fact, rather a lot happened between Babbage and ENIAC. Much of the driving force behind the computer was
the result of the development of the telegraph and telephone networks. These required the development of
metallurgy (metals and wires, magnetics), chemical processing (insulators for wires), fabrication and
manufacturing, battery technology, and the development of circuit theory and transmission lines (the behavior
of signals in networks).
The design of mechanical and electromechanical switching networks for telephone exchanges gave rise to the
body of theory that would later be used to create binary and logic circuits. The vacuum tubes that were used as
amplifiers in switching circuits and memories required the development of complex chemistry (cathodes), high‐
vacuum technology, and a theory of the behavior of electrons in electrostatic fields. Even cosmology played a role
in the history of the computer because circuits developed to detect cosmic rays in high‐altitude balloons were
later adapted as pulse counters in the first generation of vacuum‐tube‐based computers. The development
of the computer required a massive amount of progress across numerous fronts.
21. Suppose Babbage had succeeded in creating a general‐purpose mechanical computer that could operate at,
say, one operation per second. What effect, if any, do you think it might have had on Babbage's Victorian society?
SOLUTION
Technology is often interlinked. A development in one area is made because there is a need for that development.
Technology often develops across a broad front (chemistry, materials science, engineering, electronics and so on).
Had Victorian society developed mechanical computers (of the form envisaged by Babbage), engineering and
scientific calculations may have been improved, but I doubt whether there would have been a major impact on
society. It was the development of the chemical industries and the beginning of electronics that led to our modern
society.
22. Use the method of finite differences to calculate the value of 15
2
N N
2
Δ1 Δ2
1 1
2 4 3
3 9 5 2
4 16 7 2
5 25 9 2
SOLUTION
In the above table we’ve provided the integers 1 to 5 and their squares. The Δ1 column contains the differences
between successive squares and the Δ2 column contains the difference between successive differences (this is
called the second difference). You can see that the second difference is always 2. Using this and addition we can
build up the following table. Below is the table from 4 onward with the seconds and first differences. We can
add the second differences to the N
2
column to complete the table.
9
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
N N
2
Δ1 Δ2
4 16 7 2
5 25 9 2
6 36 11 2
7 49 13 2
8 64 15 2
9 81 17 2
10 100 19 2
11 121 21 2
12 144 23 2
13 169 25 2
14 196 27 2
15 225 29 2
23. Extend the method of finite differences to calculate the value of 8
3
and 9
3
.
SOLUTION
N N
3
Δ1 Δ2 Δ3
1 1
2 8 7
3 27 19 12
4 64 37 18 6
5 125 61 24 6
6 216 91 30 6
7 343 127 36 6
8 512 169 42 6
9 729 217 48 6
In this case we’ve written the values of the cubes up to 5. Observe that the third difference is a constant 6. Now
the table can be continued by constructing the third, second, and first difference columns to generate the column
of cubes without multiplication.
24. Suppose you decided to try and make computers more ‘human’ and introduce the ‘random element.’ How
would you do that?
SOLUTION
It is possible to make computers random in the sense that we can create random numbers and then use a random
number as a means of choosing the outcome of a decision; that is, creating a random element. Random numbers
can be generated by taking random noise and converting it into 1s and 0s (random noise is the background hiss
present on some radio signals). Random numbers can also be created mathematically by starting with a seed (an
initial number) and then applying successive mathematical operations to create a sequence of numbers that
appear to be random. These are called pseudo‐random numbers because the same seed always generates the
same sequence.
It would be possible to model some aspects of human thought processes by using random numbers to ‘make a
guess’; for example, to model a decision that is 90% certain you could create a random number in the range 0.0
to 1.0 and then take the decision if the random number is less than 0.9. This speculation belongs to the world of
artificial intelligence.
10
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
25. Computers always follow blind logic. Executing the same program always gives the same results. That’s what
the computer books say. But is it true? My computer can appear to behave differently on different occasions.
Why do you think that this might be so?
SOLUTION
In principle, you would think that computers are entirely predictable and you always get the same response to
the same actions. In practice, clicking on an icon may sometimes work and sometimes cause a crash. Why?
Of course, it is true that basic computer operations always yield the same results using the same data; for example,
if you perform the operation a = f(b,c) you will always get the same value of a for data b and c and operation f.
However, computers are complex systems and are not entirely synchronous; for example, the state of a signal
from an external device may be sampled (read) and it may be read as a 1 or 0, depending at which instant it is
sampled. In a sophisticated system with memory management, data may sometimes be in memory and
sometimes on disk. If data is read from cache it may be available in 1 clock cycle, getting it from main store may
take 50 cycles before it is available. If the data is on disk, it may take more than 20 million clock cycles to
retrieve it. Whether data is immediately available or requires a very significant wait is dependent on the current
job load. The interaction between individual jobs, asynchronous events such as interrupts and data
transmission, means that it is difficult to predict the operation of a computer in many circumstances.
Note that, under certain circumstances, the sampling of digital signals can lead to transitory, random errors called
glitches.
The study of systems that require guaranteed behavior (industrial process controls, fly‐by‐wire aircraft, and
nuclear reactors) is a branch of computing called real‐time systems. In real‐time systems the hardware and
software are constructed to take account of the effect of the problems we have highlighted and to minimize
them. In the 1980s a processor called the Viper was designed in the UK (sponsored by the UK Ministry of Defence)
for applications that required predictability.
26. The value of X is 7. Some computer languages (or notations) interpret X+1 as 8 and others interpret it as Y.
Why?
SOLUTION
In everyday life (i.e., natural language), we do not distinguish between the name of a variable, its address, and
its value. When we say, X = X + 1, we mean that the value we have given the variable X is incremented by 1 to
become 8. X is the name of the variable whose value is 7.
If we regard X as the representation of the character X, then X is 0x58 (the ASCII code for X). Adding 1 to X gives
us 0x59 which is the ASCII code for Y.
Some computer languages allow you to operate on the name of a variable. This question demonstrates that it is
important to appreciate the difference between name, address, and value.
27. Carry out the necessary research and write an essay on the history of the development of computer memory
systems (e.g., CRT memory, delay‐line stores, ferrite core stores, etc.)
SOLUTION
This is an open‐ended question. Some professors might require a short note highlighting the details and others
may require an extended essay covering memory technologies and the biographies of those involved. Historically,
the first form of computer memory was the punched card. This was used in the Jacquard loom in
1801 to control the weaving of patterns in textiles – a hole or no hole at a point in a card could be used to cause
11
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
the horizontal thread to go in front of or behind the vertical threads. Babbage proposed the punched card as a
storage mechanism in his analytical engine.
Early EDVAC and ACE computers used mercury delay lines to store data. Information was converted into pulses in
columns of mercury and the pulses were continually recirculated. Mercury delay lines are impractical
because you have to wait for the data you want to reach the end of the tube where it is read and recirculated.
One of the very first random access fully electronic storage devices was the Williams tube that stored data as an
electrostatic charge on the surface of a cathode ray tube. These had small storage capacities but they made
possible some of the first computers at the end of the 1940s and the beginning of the 1950s.
Drum memories appeared in the late 1940s. These used a drum or cylinder as a magnetic recording device; that
is, it was rather like a 3‐dimensional hard disk (instead of coating a flat platter with a magnetic material, the
surface of a rotating drum was coated with a magnetic material). Data was written along tracks and the disk
rotated. This was also a non‐random access device, but it could store more data than previous technologies.
Jay Foster investigated the properties of ferromagnetic materials at MIT in 1949 and this work led to the
development of the ferrite core memory used by the Whirlwind I computer in 1953. The ferrite core stored binary
data as clockwise or anticlockwise magnetization in a tiny ferrite bead. This allowed random access and relatively
high speeds (e.g., 1 µs). Ferrite core memory dominated computing for three decades.
Today’s mainstream semiconductor memory is constructed with DRAM, dynamic memory that stores data as an
electrostatic charge in a transistor. DRAM was first commercially produced by Intel in 1970. It is still the dominant
form of main store in computers today.
Secondary storage has been implemented as paper tape (obsolete) magnetic tape (still going strong in its modern
forms), and disk drives. Magnetic tape recording was invented in Germany in 1928. The first use of tape to record
data was in 1951 on the UNIVAC I.
The disk drive uses a flat rotating platter with data recorded in concentric tracks on a magnetized surface. It is the
same as tape in principle. The first disk drive was introduced by IBM in 1956 in their RAMAC computer. The first
relatively low‐cost hard disk drive appeared in 1973 as the IBM 3340 Winchester drive. Today, the hard disk drive
has evolved into small, low‐cost systems with capacities of the order of 3 TB.
The hard‐disk drive is contrasted with the floppy‐disk drive. The floppy disk drive (now virtually obsolete) used
low‐cost plastic disks to store data in the early days of the PC revolution (e.g., capacities of 360 KB, 720 KB, 1.4
MB and 2.88 MB). These capacities are miniscule today and the flash drive has totally replaced the floppy disk
drive. Although the PC revolution owes everything to the floppy magnetic disk, this recording medium is now
almost entirely forgotten.
28. Of all the early computers, which do you think should be called the first computer if you are judging the world
by today’s standards?
SOLUTION
This question is difficult, if not impossible, to answer. The person closely associated with an invention in the
public’s mind is not necessarily the person who really made the invention. For example, Edison didn’t invent the
incandescent light. Similarly, many now believe that Bell didn’t invent the telephone. In 2002 the US Congress
recognized the Italian‐American Antonio Meucci as the true inventor of the telephone. It is said that Meucci
demonstrated the telephone in New York in 1860, sixteen years before Bell took out a patent. I was surprised to
find that the transistor was not invented at Bell labs in 1947. Julius Lilienfeld filed a patent for the transistor in
1925.
Claims to the development of the computer are as convoluted and controversial as claims to any other
invention. Claims are often influenced by national chauvinism or economic pressures (e.g., in the UK many
12
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
believe that John Logie Baird invented television, even though very few people in the USA have heard of Baird).
The invention of television is analogous to the invention of the computer. Baird demonstrated a means of
displaying moving images at a distance. However, the quality of the image and the resolution were very poor,
because his scanning process was entirely mechanical. A year or so later, Vladimir Zworkin demonstrated
moving images using the iconoscope, an electronic device that became the basis of modern television. Baird’s
invention was a dead end. So, does Baird or Zworkin deserve the credit?
In the world of computing we have a similar problem. When did the computer emerge? If you regard a
computer as a concept, Babbage deserves the credit because he suggested the storage of instructions in memory,
a mill or processor that performed operations, a means of storing intermediate results, and a mechanism for
conditional computation. Babbage never built his mechanical system. However, we should note that today we
often view Babbage’s analytical engine through modern eyes as if it were conceived of as a computer (Babbage
certainly did not see it that way).
Konrad Zuse is now given credit as one of the inventors of the computer. He designed an electro‐mechanical
computer and even had a binary ‐floating point unit in 1936. Because he was in Germany in WW2, the outside
world learned little of his work until historians re‐evaluated his contribution. Zuse’s Z1 computer (1938) was the
first program‐controlled computer and his Z3 (1941) was the world’s first fully functional programmable
computer.
Atanasoff and Berry claim to have invented the first digital computer in 1937. This was an electronic computer,
but not a stored program computer. It was a calculating engine designed to solve linear equations and was not
a computer in the current sense of the word (electronic calculator would have been a better term). Many
regard the ENIAC as the first digital computer. This was also an electronic machine built at the University of
Pennsylvania and completed in 1964. The ENIAC was not programmable and you created a program by
rearranging the hardware.
However, in 1973 ENIAC’s patent of 1963 was ruled invalid in favor of Atanasoff‐Berry. Basically, two giants of
computing, Sperry Rand and Honeywell, sued each other because Honeywell alleged that Sperry Rand had an
illegal monopoly as Sperry Rand held the ENIAC patent and Honeywell was championing Atanasoff. Atanasoff
won the case. However, many historians feel that the judgment was flawed; not least because the ABC (Atanasoff‐
Berry Computer) computer was not programmable.
It appears that the first true stored‐program computer (if we forget Zuse) was the so‐called Manchester Baby
built at the University of Manchester in the UK in 1948. The EDSAC at Cambridge University, also in the UK, was
completed in 1949 and is also frequently credited with being the first stored‐program computer.
The computer (as we know it) resulted from gradually accelerating developments during the 1930s and 40s. Its
development was inevitable given the need for high‐speed computation, the widespread notion of an electronic
brain and the availability of technology.
29. In what applications have computers been most successful and in what applications have they been least
successful or even useless?
SOLUTION
Computers are ubiquitous today in both control systems, and human systems. The microprocessor has brought
low‐cost controllability to almost any system, from the washing machine to the automobile. Microprocessors
are at the heart of digital cameras, mobile phones, MP3 players, iPads/tablets and GPS systems.
Probably the first really successful popular use of the computer was word processing. It allowed countless millions
to create and manipulate documents at home. With the growth of communications technology, the
microprocessor gave us the web and distributed information – not to mention computer games and
multimedia. All these are successes. One of the most surprising and unanticipated products of the microprocessor
revolution was the spreadsheet. That revolutionized commerce.
13
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
Computers have probably been least successful in the field of artificial intelligence; that is, the mimicking of
human behavior. Certainly, the humanoid robot (e.g., Asimov’s robots) that has a very long history in SF has not
emerged. Nothing remotely like it has appeared. Operations that are apparently simple to humans, such as speech
understanding, have not been fully achieved (there are, of course, some respectable speech recognition and
understanding systems such as Apple’s Siri, but these are not yet perfect). Similarly, robots cannot generally
perform operations that we regard as easily; for example, climbing stairs. We have created excellent special‐
purpose robots (e.g., in the automobile world) but nothing that comes close to a machine with human‐ like
capabilities.
30. Why is the bus so important to a computer?
SOLUTION
The bus distributes data in a computer between functional units and between the computer and peripherals.
The bus provides a computer with connectivity. The bus is to a computer what a highway is to a human.
Without highways we would not be able to go from one place to another with great ease. Every journey would
have to be strictly point‐to‐point. We share roads with others and have protocols (traffic signals, driving
conventions, and laws) to ensure the smooth and orderly flow of traffic. The same is true of computers and buses.
Processors, memory units, displays and countless peripherals have to be interconnected. Buses allow this to
take place. There are fast buses between a computer (CPU) and its external memory (DRAM). There are slower
buses between computers and peripherals (e.g., USB). Protocols exist so that information flows in an orderly
fashion in a computer; for example, one device can request the bus, another device currently controlling
the bus can give it up, and the would‐be bus controller take control in an orderly fashion.
31. It is common to hear the argument that the development of the CPU (microprocessor) in terms of its size,
power, and speed has driven the computer revolution. What other aspects of the computer system have driven
the computer revolution?
SOLUTION
The previous question pointed out the importance of the bus. Without USB/FireWire and WiFi/Bluetooth,
interconnectivity would not be possible and mobile Internet applications would not exist. Similarly, the
development of low‐cost peripherals such as printers, scanners, displays, mice and keyboards has made the
personal computer an almost essential household item.
Three other developments that have been vital to the growth of the computer are:
a. The display. Portable computing would be impossible without low‐cost, high‐resolution, energy‐efficient
color displays.
b. The development of the disk drive provides large quantities of low‐cost data storage. Although
performance has increased relatively little (time to read and write data), storage capacity has risen from
about 5 MB to about 5 TB which represents a million‐fold increase in capacity.
c. The development of flash‐memory. The hard disk is relatively bulky and has high power consumption. Flash
memory now provides the non‐volatile storage required by MP3 players, digital cameras, and some
notebook/netbook computers.
14
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
32. Where do you think the bottlenecks (limitations or barriers) to the growth of the computer, in terms of its
computational power and its abilities/application, lie?
SOLUTION
This is partially answered by other questions on, for example, Moore’s Law.
Limitations depend to some extent on the nature of the user. This answer is largely aimed at the home or office
computer user, rather than the scientific or government user, because scientific/government users can spend
their way out of bottlenecks (e.g., by means of massive parallelism).
In terms of data storage (capacity) we are doing well. The greatest storage requirement comes from high
definition moving images. At the moment personal computers and tablets can hold a reasonable amount of
data; for example, hundreds of hours of video. As the resolution of displays increases, there will be a continued
need for more storage capacity (and some will wish to carry their entire video storage with them).
Processing power is not usually an issue in desktop computing. However, those working on very high resolution
still and moving images continue to require more power. The same is true for high‐resolution dynamic games.
High‐performance games computing will probably be a driving force for years to come.
AI applications will continue to soak up computing power as fast as it can be generated for the foreseeable future.
For example, face recognition could be used to compile databases of all scenes and actions across many movies,
a gigantic task.
A practical limitation to computing is bandwidth, either for a fixed computer (e.g., via cable modems) or for mobile
computers (via WiFi). It may well be that the lack of bandwidth will prove to be the single most limiting factor for
the average user.
Another limitation is power. This manifests itself by limiting computing speed (the need for more energy) and
displays (the need to provide backlighting). Another power limitation is dissipation in terms of the need to remove
heat from a computer. This is a particular problem in mobile computing. Finally, when the public electricity supply
is not available (e.g., mobile computing), the principal limitation is battery life.
In non‐home and office computing (commercial, military, government, medical) it is hard to see any limit to the
demand for both storage capacity and computing power. Medical imaging alone has increasingly larger and larger
storage requirements. Simulation also has endless requirements from the simulation of nuclear explosions, to the
simulation of weather systems, to the simulation of molecular processes in physics. There is simply no foreseeable
limit to computational requirements.
33. Is Moore’s law a law?
SOLUTION
No, not in the sense of a physical law. It is based on an observation that has been turned into a prophecy or
conjecture. Because it has appeared to hold (or at least approximately so) for four decades, manufacturers have
used Moore’s Law to begin designing the next generation of microprocessors before the current generation is in
production; that is, the manufacturer can start to design a system with twice the number of transistors as the
current generation without the technology needed to fabricate the device being currently available. I call it
‘Mr. Micawber’s Law’, because it relies on something turning up. In recent years, many have stated that
Moore’s Law has indeed come to an end because we have reached (or are very close to) the physical limits to
computer performance.
15
© 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part.
34. Why do you think that Moore’s law exists? What drives it or makes it possible?
SOLUTION
There are several versions of Moore’s Law and corollaries of it. The basic law states that the number of transistors
on a chip doubles every 18 months. This is similar to saying that the size of individual transistors will be reduced
by a factor of 0.7 every 18 months. A popular corollary is that processing power double every 18 months. The fact
that Moore’s Law has worked for so long indicates that there may be several factors driving it.
Moore’s Law has been kept afloat by the astonishing progress in semiconductor manufacturing technologies
that are able to fabricate smaller and smaller transistors, year by year. In turn, this requires progress in many
different areas – semiconductor manufacture, encapsulation, the development of new materials such as the high‐
k metal gate, new transistor structures (different geometry) and, above all, progress in the
photolithography used to fabricate chips. Moreover, as technologies improve they can themselves be used to
create better chip‐manufacturing tools.
Moore’s Law will eventually come to an end. That is not an observation from recent trends or a guess or a
conjecture; it’s a certainty. Semiconductors are constructed from real materials that have an atomic structure.
There is a limit to how small things can be made in the atomic world. By about 2020, transistors will be reaching
the atomic limit. Once interconnections between transistors chips become just a few atoms wide, the
conventional rules of electronics will no longer hold and quantum mechanical effects will begin to dominate.
Some believe that Moore’s Law will continue beyond 2020 by exploiting three‐dimensional circuit design, or other
forms of computing that take place at the atomic level using quantum mechanical effects or magnetism.
Other documents randomly have
different content
Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition
Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition
Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition
The Project Gutenberg eBook of Nuovi studii
sul genio vol. II (Origine e natura dei genii)
This ebook is for the use of anyone anywhere in the United
States and most other parts of the world at no cost and with
almost no restrictions whatsoever. You may copy it, give it away
or re-use it under the terms of the Project Gutenberg License
included with this ebook or online at www.gutenberg.org. If you
are not located in the United States, you will have to check the
laws of the country where you are located before using this
eBook.
Title: Nuovi studii sul genio vol. II (Origine e natura dei genii)
Author: Cesare Lombroso
Release date: May 2, 2019 [eBook #59417]
Language: Italian
Credits: Produced by Claudio Paganelli, Carlo Traverso, Barbara
Magni and the Online Distributed Proofreading Team at
http://www.pgdp.net (This file was produced from
images
generously made available by Biblioteca Nazionale
Braidense
- Milano)
*** START OF THE PROJECT GUTENBERG EBOOK NUOVI STUDII
SUL GENIO VOL. II (ORIGINE E NATURA DEI GENII) ***
Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition
NUOVI STUDII SUL GENIO
II
ORIGINE E NATURA DEI GENII
NUOVI STUDII SUL GENIO
VOLUME II
ORIGINE E NATURA
DEI GENII
DI
C. LOMBROSO
(con 3 tavole e 6 figure nel testo).
MILANO — PALERMO — NAPOLI
REMO SANDRON
Editore brevettato di S. M. il Re d'Italia
—
1902.
PROPRIETÀ LETTERARIA
(mc) Torino — Tipografia G. Sacerdote.
INDICE
ORIGINE E NATURA DEI GENII
"Quelques difficultés qu'il y ait
à découvrir des vérités
nonvelles en étudiant la
nature, il s'en trouve des plus
grandes encore à les faire
reconnaître".
Lamarck.
CAPITOLO I.
Sull'unità del genio.
Fra i cento e più critici che tartassarono la mia teoria sul Genio, uno
solo mi ha segnalata una vera, capitale lacuna: il Sergi: quando mi
obbietta, nel Monist, che io ho sì illustrata e, forse, rivelata, la natura
del genio; ma non ho spiegato come sorgano le varietà così
differenti dei genî. Non già — egli intendeva — che i genî
differiscano essenzialmente fra loro per qualità. L'eccellere nella
pittura piuttosto che nella matematica o nella strategia, non cambia
punto la natura dei genî; come il variare nel sistema di
cristallizzazione romboedrica o esaedrica non cambia la natura
chimica del carbonato calcare, essendo in tutti comune l'esplosione,
l'intermittenza, la creazione del novo e, sopratutto, l'estro.
Ciò, per quanto le parvenze vi fossero contrarie, ci venne
chiaramente provato anche dai più insigni pensatori.
Così il Mach[1] notava: "Come già Giovanni Müller e Liebig
affermarono arditamente, le operazioni intellettuali degli scienziati
non differenziano sostanzialmente da quelle degli artisti. Leonardo
da Vinci può esser posto tra gli uni e gli altri. Se l'artista, con pochi
motivi, compone la sua opera, lo scienziato scopre i motivi che
penetrano nella realtà. Se uno scienziato, come Lagrange, è in
qualche modo un artista quando espone i risultati ottenuti, a sua
volta un poeta, come Shakespeare, è uno scienziato nella visione
intellettuale che presiede all'opera sua. Newton, interrogato sul suo
metodo di lavorare, rispose che meditava a lungo sullo stesso
argomento; e così risposero D'Allembert e Helmoltz. Scienziati e
artisti raccomandano il lavoro tenace e paziente. Quando la mente
ha più volte contemplato lo stesso soggetto, aumentano le
probabilità di occasioni favorevoli alla creazione; tutto quanto può
plasmarsi alla idea dominante acquista rilievo, mentre quanto le è
estraneo fugge nell'ombra. Così spicca di luce improvvisa
quell'immagine che esattamente risponde all'idea; e mentre è effetto
di lenta selezione, sembra il risultato di un atto creativo; così si
comprende come Mozart, Newton, Wagner affermino che le idee, le
armonie e le melodie affluissero loro spontanee ed essi non
facessero che ritenerne il meglio".
A sua volta Carlyle disse: "Non v'ha differenza sostanziale tra artista
e scienziato. Molti poeti furono insieme storici, filosofi e statisti;
Boccaccio e Dante furono diplomatici", e noi aggiungeremo che
Leonardo da Vinci, Cardano, come negli ultimi tempi D'Azeglio,
Humboldt, Goëthe, abbracciarono i campi più svariati dello scibile
umano.
È un fatto notorio che molti grandi matematici furono o nacquero da
artisti; così vedo nella Biografia di Beltrami, redatta con tanto amore
dal Cremona (Roma, 1900), che il Beltrami ebbe avo un abilissimo
musico, e padre e zio pittori di merito, e madre nota per belle
composizioni musicali; egli stesso era pianista abilissimo, come lo
furono Sylvester, Codazzi e come lo sono Porro, Sciacci, D'Ovidio; lo
stesso Beltrami[2] dettò una specie di teoria sui rapporti tra la
musica e la matematica, pretendendo che il processo mentale
applicato alla musica fosse identico, o poco meno, a quello delle
matematiche; quasi che nell'uno e nell'altro fossero posti in azione
gli stessi organi. Codazzi, grande matematico e insieme pazzo
morale ed alcoolista, era un vero melomane: stava intere notti al
piano; più volte mi diceva che era sulla via di trovare un metodo per
comporre musica col mezzo della matematica; in fatto, però, soffriva
e morì di delirium tremens.
Meyerbeer, a sua volta, era un buon matematico.
E non citiamo Haller, Swedemborg, Cardano (Vedi sopra, vol. I), che
percorsero, scoprendovi del nuovo, i campi più disparati dalla
matematica e dalla chimica alla teologia e letteratura; perchè ci si
potrebbe obbiettare: che era facile allora abbracciare le regioni più
lontane dello scibile e anche trovarvi del nuovo, essendone la
materia ancora così circoscritta.
Se non che: se ai nostri tempi questo pare inverisimile, gli è perchè
si riflette anche nella concezione del genio quell'eccessiva divisione
del lavoro che si è infiltrata nella vita; per cui non riconosciamo
abbastanza i meriti dei genî multiformi e non ne accettiamo che
alcune delle doti unilaterali più appariscenti. Così nessuno ai suoi
tempi, anzi nemmeno ora, ha riconosciuto abbastanza il merito di
Goëthe nella filosofia naturale.
Una volta ammesso in Goëthe il grande poeta, ripugnamo a crederlo
grande naturalista e grande ottico. Così nessuno di noi riconosce o
ricorda le profonde attitudini politiche e scientifiche di Dante, nè le
letterarie e tattico-militari di Macchiavelli, nè le musicali di Rousseau;
e nessuno sa vedere in Leonardo da Vinci il geologo, l'idrologo, il
balistico, l'anatomico, o in Cardano il letterato, il filosofo e il
teologo[3]. Pure in nessun di questi casi la grandezza del genio nei
rami più disparati era giustificabile dalle condizioni dei tempi: nè in
questi casi vale più la scusa della divisione del lavoro, nè l'obbiezione
che lo scibile si riduceva a così poco da potersi facilmente tutto
abbracciare: perchè quei genî non solo avevano percorsa tutta la
scienza contemporanea, ma prevennero quella dei nostri tempi, e
alcuni, anzi, furonci coevi, come Goëthe, Humboldt, Hæckel,
Leopardi, D'Azeglio e Arago.
CAPITOLO II.
Cause note della varietà dei genî.
Se non che, ripeto, notava giustamente il Sergi che la comune
natura dei genî non ispiega affatto la ragione della loro varietà, come
la composizione identica dei cristalli di calce non spiega perchè
ciascuno cristallizzi in un sistema speciale: acqua e ghiaccio hanno
pure la stessa formola molecolare; ma perchè l'una abbia aspetto
d'acqua e l'altra di ghiaccio, ci vuole una condizione speciale, che è
nota essere la termica.
Ora, come può spiegarsi la varietà così diversa dei genî?; perchè l'un
genio si specializza nel drizzone artistico e più propriamente della
pittura, e l'altro diventa un genio storico, archeologico, ecc.? Qui è
veramente il nuovo problema.
Eredità. — Nè basta a spiegarlo l'eredità. Recentemente Möbius
faceva notare la strana frequenza ed intensità dell'eredità nei
matematici, riscontrata tra padre e figlio in 215 e in 35 con più figli:
17 volte tra padre, figlio e zio; 5 col nonno e con lo zio; 20 tra zio e
nipote; 131 tra affini; in più di due fratelli 23 volte; 3 volte tra sorelle
e fratelli[4].
Ciò pare anche più diffusamente abbia luogo per la musica, forse
perchè qui l'ambiente può agire più precocemente, poichè noi
sappiamo, dagli studi del nostro Garbini sui bambini, che essi
cominciano a 13 mesi ad avvertire le note cromatiche e nel 5º anno i
suoni.
Perosi ebbe non solo il padre e il nonno musicisti, ma anche l'avolo e
il bisavolo, e crebbe in mezzo a un'atmosfera di musica e di religione
come Mozart. Ed è nota la discendenza dei Bach, dei Mozart, dei
Gabrielli, dei Palestrina e dei Bellini.
Anche Wagner ebbe fin dalla seconda generazione maestri di musica
in famiglia: un nonno coltissimo, un padre giurista, è vero, ma
appassionato dell'arte drammatica e del teatro; e il padrigno,
successo alla morte del padre, era nientemeno che il comico Ludwig
Geyer. Anche lo zio era appassionato dell'arte, e come
commediografo sviluppava in alcune sue monografie le idee che
furon tanto care poi al nipote. Finalmente un fratello e tre sorelle del
Geyer si erano date al teatro. Si capisce quindi che, benchè egli si
fosse dato alla pittura fin dalla giovinezza, divenisse poi il più grande
poeta e musicista del suo tempo.
Raffaello era di famiglia di scultori e pittori: il padre, poeta e pittore,
gli insegnò la sua arte.
Nelle scienze naturali eccelsero i Darwin, gli Hooke, i Jussieux, i
Geoffroy de Sant-Hilaire, ecc.
Eredità dissimilare. — Ma a chi ben studi questi casi, specie pei genî
scientifici, essi sono più l'eccezione che la regola.
Se per molti altri genî l'esser nati, come Darwin, come Musset,
Raffaello, Geoffroy, Bach, Saint-Hilaire, Bernouilli in mezzo a parenti
pittori, astronomi o naturalisti, fu circostanza a loro favorevole,
perchè alle predisposizioni, alle trasmissioni ereditarie che influirono
sulle loro speciali tendenze si aggiunse l'azione dell'ambiente, sicchè
trovarono nelle tendenze ataviche, fin dai primi anni, la ragione
d'ispirarsi alla mèta definitiva, — regola più comune[5] è invece la
mancanza di eredi nel genio, più di frequente presentandosi quella
che io vorrei chiamare "eredità dissimilare" o "contraria" e che noi
vediamo così spesso nel mondo, per cui i figli degli avari sogliono
essere prodighi, i figli dei coraggiosi vilissimi, ed inerti i figli degli
uomini d'azione. Così il genio disordinato di Poë gli venne, forse per
dissimilarità, dal puritanismo del generale Poë, che era di tanto
austero di quanto il nipote era scapigliato.
Hoffmann, il disordinatissimo Hoffmann, ebbe, come l'ancora più
scapigliato Verlaine (V. vol. I), zii e madre compassati como
macchine; e così D'Azeglio, Heine ed Alfieri nacquero da parenti
tutt'altro che amici dell'arte; Colombo nacque da volgari mercanti e
tessitori.
Io conosco il figlio di un grande oculista italiano che aveva tutte le
ragioni per seguirne la carriera, eppure divenne invece grande
otoiatra, per una ripugnanza insormontabile alla bellissima scienza
paterna.
Pare che in questi casi avvenga una specie di saturazione, per cui ai
figli non rimane che l'incapacità o la ripugnanza per gli studi paterni.
Così molti poeti e artisti nacquero da negozianti, da notai o avvocati,
avversari accaniti dell'arte e di ogni idealità, e molti santi da gente
viziosa.
Ambiente. — E così dicasi di quelle circostanze economiche o sociali
che circondano la vita del genio, specialmente ai suoi albori, e che si
chiama l'"ambiente", in cui i pensatori mediocri tanto si cristallizzano.
Così si capisce come un paese tutto ravvolto in guerre, come il
Piemonte, non abbia dato nei primi periodi nemmeno un artista, nè
un poeta, poichè qualunque genio, che non eccellesse nell'armi, vi
rimaneva sconosciuto e sprezzato. E così si capisce che in un paese
come la Spagna, in cui il libero pensiero era soffocato col rogo,
mancassero completamente i filosofi ed i naturalisti e non sorgessero
che teologhi ed artisti. Si capisce, eziandio, perchè in Italia, dove i
delitti sono così abbondanti, sorgano tanto numerosi gli avvocati e
criminalisti geniali, quali un Beccaria, un Romagnosi, un Ferri, un
Garofalo, un Pagano, un Ellero, un Carmignani, un Carrara.
Così si spiega come negli Ebrei, tanto dediti al commercio, fossero e
siano tuttora numerosi i grandi economisti. Basti citare Marx,
Lassalle, Ricardo, Loria, Luzzatti. Ricardo non fu certo inspirato dal
padre, nè può dirsi che abbia avuto eredità geniale; ma è certo che,
avendo preso parte ai commerci e alle speculazioni del padre,
banchiere olandese, partì dalle pratiche commerciali alle applicazioni
economiche, e questo ci spiega come correggesse gli errori degli
economisti teorici contemporanei e come tutte le sue opere
sentissero le origini e le ispirazioni pratiche, sfuggendo in seguito a
grandi avvenimenti commerciali, come la crisi monetaria del 1800.
CAPITOLO III.
Vantaggi dell'agiatezza e della miseria.
Così dicasi della ricchezza. Spesso il benessere favorisce il genio.
Pascal riteneva che una nascita distinta conferisca a venti anni, nella
stima e nel rispetto degli altri, una posizione che i diseredati mal
riescono a raggiungere a quaranta.
Che cosa sarebbe avvenuto di Meyerbeer senza la ricchezza, di
Meyerbeer che aveva una produzione così laboriosa ed il cui genio si
esplicò solo viaggiando e vivendo in Italia?
Ma tutto ciò va inteso con molta circospezione, perchè quanti genî,
invece, non furono guastati dalla ricchezza e dalla potenza!
Jacoby ha dimostrato che il potere illimitato precipita la
degenerazione, rende facilmente megalomane e demente chi lo
impugna.
E noi vediamo la deputazione averci rapiti uomini geniali, diventati
poi, al più, mediocri ministri.
Chi sa dirci quanti fra quelli che si pompeggiano nelle nostre vie, fieri
di un bel sauro e di una occhiata di qualche clorotica duchessa, non
sarebbero diventati grandi uomini? Un esempio ce ne offre
l'aristocrazia piemontese. Per molto tempo avendo tenuto a gloria il
brillare nella milizia e nella politica, essa ci diede più uomini celebri
che non il patriziato di Toscana insieme e di Napoli; ed ora non
emerge che nelle sacrestie e nelle regie anticamere.
Di più: bisogna ricordare che fu spesso la miseria, l'infelicità, che,
servendo da stimolo, da pungolo al genio, ne fecero spicciare la
vocazione; il che spiega quanto dimostrò la mia Paola: essere
l'infelicità uno dei caratteri più frequenti della storia del genio[6].
Così: senza la miseria non avremmo avuti i romanzi di George Sand
e della Becher-Stowe, nè le commedie di Goldoni.
Non rare volte, è vero, parve l'occasione aver dato luogo allo
sviluppo del genio.
Così, per un rimprovero che Muzio Scevola fece a Servio Sulpizio di
ignorare le leggi del proprio paese, somma vergogna per un oratore
e per un patrizio, quest'ultimo divenne un grande giureconsulto.
Spesso i tagliatori di pietre, da lavoranti nelle cave intorno a Firenze,
sin dai più felici tempi della Repubblica riuscivano scultori di vive
figure, quali Mino da Fiesole, Desiderio da Settignano e il Cronaca. E
Giovanni Brown, scalpellino, datosi a studiare i fossili delle pietre che
picchiava, riuscì uno de' più grandi geologi.
Andrea Del Castagno, stando a guardia degli armenti nel Mugello,
rifugiatosi un giorno, dal diluviar della pioggia, entro una cappelletta
ove un imbianchino stava scombiccherando una Madonna, si sentì
attratto ad imitarlo; cominciò col carbone a disegnare figure
dappertutto e si acquistò fama tra i paesani; messo poi a studiare da
Bernardino de' Medici, riuscì pittore insigne; e Vespasiano da Bisticci,
libraio o cartolaio a Firenze, dovendo pel suo negozio maneggiare
molti libri e aver da fare con uomini di lettere, divenne letterato egli
stesso.
Ma la storia dei genî è più ricca di circostanze contrarie che di
favorevoli, come in Boileau, Lesage, Cartesio, Racine, La Fontaine,
Goldoni, costretti a soffocare la musa sotto la toga pesante di Temi
o, peggio, sotto la stola del prete. Metastasio fu sarto, Socrate
scalpellino.
I parenti di Poisson volevano farne un chirurgo, quelli di Bochax un
prete, quelli di Lalande e di Lacordaire degli avvocati. Vauclin era un
contadino, Herschell un suonatore ambulante. Per Cellini tutto era
disposto perchè divenisse suonatore di flauto e non scultore. E
Michelangelo, secondo i parenti, doveva divenire un sapiente, un
classico, mai, come diceva il padre, uno scarabocchiatore
d'immagini; e quando un grande scultore vide le inclinazioni e i primi
tentativi del giovane, ed esortò il padre a metterlo nel suo studio,
questi per acconsentirvi si fece pagare da lui una somma che
aumentava di anno in anno.
Berlioz (Memorie) era figlio d'un medico geniale che aveva fatti lavori
molto importanti sull'agopuntura e, sperando di avere in lui un
successore, l'aveva educato a questo scopo e l'aveva indotto a
sorpassare le prime ripugnanze della sala anatomica, dove gli aveva
aperte le più care amicizie coi cultori di questa scienza (Gall,
Amussat, ecc.); a diciasette anni, non appena sentì le Danaidi di
Salieri, abbandonò tutto, per divenire maestro compositore.
Galileo ebbe una lunga serie di antenati filosofi, magistrati,
pensatori, che rimontano fino al 1538[7]. Anche il padre Vincenzo,
oltre l'attitudine alla musica, in cui era originalissimo, ebbe attitudini
alla geometria e alla mercatura, ed il figlio Benedetto, fratello di
Galileo, era pure rinomatissimo nella musica, la quale, con occhio
naturalistico, era stata insegnata ai due figliuoli; ma evidentemente
questa eredità non ebbe una influenza diretta, e poca, anzi nulla, vi
ebbe l'educazione, che in quei tempi portava alla retorica ed al
classicismo, così che — attesta il Nelli — "in quei tempi in Toscana
solo i padri Scolopi tenevano scuola di geometria e di matematica,
non apprezzandovisi allora che gii Umanisti; e nemmeno gli
giovarono gli studi medici, allora tutto affatto teorici e senza alcun
rapporto con l'esperimentazione".
Budda, Cristo e Comte ebbero un ambiente sì sfavorevole, che le
loro dottrine si propagarono solo fuori del loro paese d'origine.
È vecchia l'osservazione:
A cui natura non lo volle dire,
Nol dirian mille Ateni e mille Rome.
Le circostanze, dunque, e lo stato di civiltà al più fanno accettare e
rivelano i genî e le loro scoperte, che in altre condizioni sarebbero
passate inosservate o derise, e, peggio, perseguitate.
Quindi si comprende come le grandi scoperte siano assai di rado
completamente nuove all'epoca in cui sono accettate.
"La vapeur — Fournier — était un jouet d'enfant au temps de Héron
d'Alexandrie et Anthemius de Tralles. Il faut que l'esprit humain et
les besoins de notre race travaillent des millions de fois par
l'expérience avant de tirer toutes les conséquences d'un fait".
Nel 1765 Spedding offerse il gas portatile già bell'e pronto al
municipio di Witchaven, che lo rifiutò; vennero poi Chaussier,
Minkelers, Lebon e Windsor, che non ebbero altra abilità se non di
appropriarsi la scoperta e fruirne. Il carbon fossile era stato scoperto
nel secolo XV, la nave a ruota nel 1472, quella ad elice prima del
1790; quando nel 1707 Papin fece navigare una nave a vapore, non
ne ritrasse che scherni e lo trattarono da ciarlatano.
Il Sauvage, che finalmente potè applicare il vapore alla navigazione,
lo vide in opera... dal carcere, dov'era imprigionato per debiti.
La dagherotipia venne intravveduta nel secolo decimosesto in
Russia, fra noi nel 1566 dal Fabricio e di nuovo scoperta dal
Thiphaigne de la Roche.
Il galvanismo fu prima scoperto dal Cotugno e poi dal Du Verney. La
teoria stessa della selezione non appartiene a Darwin
esclusivamente. Questa idea, come tutte le altre, ha nel passato
profonde radici. "Le specie attuali non sussistono che in grazia della
loro astuzia, forza e velocità; le altre sono perite" — diceva già
Lucrezio —; e Plutarco, interrogato perchè i cavalli, che furono
inseguiti dai lupi, fossero più rapidi degli altri, adduceva per ragione
che essi soli erano sopravvissuti, essendo stati gli altri, più pigri,
raggiunti e divorati.
La legge d'attrazione di Newton era già intuita nelle opere del secolo
decimosesto, specialmente di Kopernico e Keplero, e fu quasi
tracciata da Hooke.
E così dicasi pel magnetismo, per la chimica, per la stessa
antropologia criminale, come dimostrava Antonini[8]. Dunque non è
la civiltà che sia causa dei genî e delle scoperte; ma essa ne
determina l'evoluzione, o, meglio, l'accettazione. Quindi è probabile
che genî siano comparsi in tutte le epoche, in tutti i paesi; ma come,
grazie alla lotta per l'esistenza, una quantità di esseri nasce solo per
soccombere, invendicata preda dei più forti, così moltissimi di quei
genî, quando non trovarono l'epoca favorevole, restarono
misconosciuti, o, peggio anzi, puniti. E se vi hanno civiltà che
aiutano, ve ne hanno anche di quelle che danneggiano la produzione
dei genî; per esempio in Italia, dove la civiltà è più antica e dove se
ne rinnovarono parecchie, una più forte dell'altra; ivi, se la tempra
del popolo è più aperta, in genere tutto il mondo colto è più restìo
ad ogni novità ed innamorato e quasi incatenato nell'adorazione del
vecchio, quindi nemico dei novatori, e li abbatte o reprime col
disprezzo o col silenzio e coll'abbandono. Invece: dove la civiltà è più
recente, come in Russia e in America, le idee nuove si accolgono con
un vero furore.
Quando il ripetersi della stessa osservazione ha reso meno ostica
l'accettazione dei nuovi veri, o quando le circostanze rendono utili e,
meglio, necessari un dato uomo od una data scoperta, esse si
accettano, finendo, poi, col portarle all'altare.
Il pubblico, che vede la coincidenza tra una data civiltà ed il
manifestarsi del genio, crede che l'una dipenda dall'altra, confonde la
leggera influenza nel determinare lo sgusciamento del pulcino con la
fecondazione che rimonta invece alla razza, alla meteora, alla
nutrizione, ecc.
E non è a dire che ciò non accada nei nostri tempi; l'ipnotismo è lì
per dimostrare quante volte, anche quasi sotto i nostri occhi, si
rinnovò e fu presa per nuova una sempre uguale scoperta. Ogni età
è egualmente immatura per le scoperte che non avevano od
avevano pochi precedenti; e quando è immatura, è nell'incapacità di
accorgersi della propria inettitudine ad adottarla. Il ripetersi di
un'analoga scoperta, preparando il cervello a subirne l'impressione,
vi trova man mano sempre meno riluttanti gli animi. Per sedici o
venti anni in Italia si è creduto pazzo dalle migliori autorità chi
scopriva la pellagrozeina; ancora adesso il mondo accademico ride
dell'antropologia criminale, ride dell'ipnotismo, ride dell'omeopatia.
Chissà dunque che anch'io ed i miei amici, che ora ridiamo
dell'incarnazione spiritica ed astrale, non commettiamo un altro di
quei crimini contro il vero, poichè noi siamo — come gli ipnotizzati,
grazie al misoneismo che in tutti noi cova — nell'impossibilità
d'accorgerci quando siamo nell'errore; e proprio come molti alienati,
essendo noi al buio del vero, ridiamo di quelli che non lo sono.
Finchè l'età sua non sia giunta, finchè l'umanità non vi sia matura,
ogni scoperta, ogni idea nuova è, dunque, come non fosse mai nata.
CAPITOLO IV.
Vantaggi della libertà.
Ed è perciò che solo nei paesi più liberi vegeta rigogliosa la genialità.
Io l'ho dimostrato graficamente nell'Uomo di genio col parallelo tra i
dipartimenti più liberali nelle elezioni di Francia e i dipartimenti più
ricchi di genî, come il Varo, la Senna, il Rodano, la Saona e Marna, la
Meurthe, la Vandea, il Morbihan; mentre i Bassi ed Alti Pirenei, il
Gers, la Dordogna, il Lot — reazionari — danno pochissimi genî. È
così grande e completa questa analogia, che spesso maschera e
confonde quella della razza, della densità, della ricchezza, ecc.
Ginevra, che nel 1500 era detta la città dei malcontenti, certo era la
più geniale della Svizzera, e così dicasi di Atene, la quale, nel più
fiorente periodo della sua libertà o, meglio, anarchia, giunse a
contare 56 grandi poeti, 21 oratori, 12 storici e letterati, 14 tra
filosofi e scienziati e 2 sommi legislatori, come Dracone e Solone,
mentre Sparta oligarca ebbe poche o punto rivoluzioni, ma
pochissimi ingegni famosi (non più di sei, secondo lo Schoell); — la
lotta per la libertà in Olanda, in un'epoca in cui il senso della libertà
era quasi sconosciuto in Europa, ci spiega come questo popolo abbia
dato, appunto allora, un così grande numero di genî politici e
artistici.
Fu sopratutto grazie al lungo periodo di libertà — 700 e più anni —,
periodo superiore a quello goduto da tutti i popoli d'Europa, che
Venezia riuscì a superare tutti gli altri in grandezza politica, come ho
dimostrato nel Perchè fu grande Venezia?[9]; e così Firenze e Roma
diedero i loro più grandi genî nell'epoca della loro maggiore libertà,
anzi dell'anarchia. E qui ricordo di nuovo come debba sfatarsi l'idea
che all'aristocrazia chiusa di Venezia negli ultimi secoli fa merito della
sua grandezza; così come quell'altra, pure erronea, che attribuisce la
ricchezza in Roma ed Atene ad Augusto o a Pericle. Tale ricchezza,
formatasi durante i periodi di libertà anche eccessiva, non avendo
avuto tempo di scomparire nelle prime epoche della tirannide, si
volle attribuire a questa invece che a quella; ma la tirannide non fece
che accogliere gli ultimi frutti della libertà per vantarsene e per
disperderli.
Tacito lo nota pei genî romani: "Postquam bellatum apud Actium
atque omnem potentiam ad unum conferri paci interfuit magna illa
ingenia cessere"; come altrettanto affermava Leonardo Bruni per
Firenze nella Laudatio urbis Florentinæ (Livorno, 1789, pag. 16)
contro la leggenda che ne attribuisce la grandezza al mecenatismo
mediceo.
E ciò ben si comprende perchè il governo di molti, anche se troppo
libero, mette in opera tutti gli ingegni e ne accoglie le nuove idee;
mentre la tirannide, nemica, fin dal tempo dei Tarquinî, di ogni
elevatezza individuale, tenta sopprimerla e soffocarne ad ogni modo
i conati; e quindi è più facile che giovi allo sviluppo dell'arte e della
politica una libertà anche sfrenata che non un governo dispotico, sia
pure inspirato da un uomo di genio.
Chi può paragonare la produzione letteraria ed artistica sorta a Parigi
sotto Napoleone con quella della grande epoca fiorentina e ateniese?
Ed ecco spiegato anche, così in gran parte, quel fenomeno, che sarà
rimasto difficile a comprendersi, della grandezza fiorentina in
confronto a quella di Napoli e di Palermo, dove poche opere
grandiose d'arte lasciarono traccia di sè e dove la somma dei genî
non raggiunse il livello toscano; eppure non mancò nè all'una, ne
all'altra il clima favorevole di mite temperatura, di collina e mare che
io ho dimostrato essere il più opportuno pel genio; nè vi mancò
l'innesto etnico, nè la razza intelligente, etrusca negli uni, grecolatina
negli altri, con mistione di Normanni, ecc.
La genialità è un carattere dell'evoluzione e della libertà, e ne è un
indizio; e non tanto perchè essa ne sia originata, ma perchè solo
l'evoluzione e la libertà servono a metterla in onore e diffonderla.
Carlyle, negli Eroi, scrisse che il miglior indice della coltura
d'un'epoca è il modo con cui essa accolse i suoi genî.
È perciò assai probabile che di genî ne siano sorti o ne sorgano in
tutti i tempi e in tutti i paesi; ma non sopravvivono, perchè non sono
compresi, che dove il fermento di libertà renda loro meno aspra la
strada, domando l'odio del nuovo che tende sempre a soffocarli nel
nascere; e così nel Nord d'America Whiteman, Longfellow, Edison
sono dappertutto acclamati, e in Italia, dove la libertà è inceppata da
ogni parte, i veri genî trovano, sì, copia di onori e monumenti, ma...
dopo la morte.
Per comprendere meglio quest'influenza, basti l'esempio delle
sventure di Galilei per una semplice teoria astronomica, che non
intralciava, nè offendeva interessi mondani.
Nei paesi poco liberi l'odio del nuovo trova naturali alleati nei
reggitori, e quindi è irremissibilmente soffocato e punito.
Io ne vedo, fino ad un certo punto, una prova nella sorte della nuova
Scuola penale da me iniziata e che trova, per esempio, in America ed
in Svizzera, Olanda e in Svezia un pubblico favorevole che la
propugna, mentre è irremissibilmente respinta da ogni cattedra,
come da ogni ufficio, come da ogni progetto di legge nei paesi come
l'Italia, in cui il popolo è ancora schiavo dei vecchi e vieti pregiudizi e
governato semi-asiaticamente.
E quest'azione negativa è così grande, che fa credere ad un'azione
diretta dell'ambiente favorevole al genio.
Si vede, dunque, che le condizioni ereditarie e d'ambiente, su cui più
si faceva assegnamento per l'origine delle varietà geniali, o
mancano, o sono contraddittorie.
Memoria visiva, tipo immaginativo, ecc. — Basterà egli a
determinarle la particolare tempra dell'organismo geniale, secondo
che vi predomini, cioè, la memoria visiva o l'acustica, secondo che
sia più viva la fantasia, più rapida che precisa la percezione e
viceversa; fatti questi che noi abbiamo potuto fissare nel genio[10],
con lo studio della grafologia, nella scrittura così nitida e calma,
quasi a stampatello, nei chimici e nei matematici, così aggrovigliata e
precipitosa in quelli in cui predomina la fantasia.
E qui giova l'osservazione sperimentale di Binet e Lecler[11] che in
ogni gruppo d'uomini vi ha il tipo immaginativo — poeta — e quella
di osservazione minuta, arida, ma precisa; il che dividerebbe
nettamente la scienza dall'arte.
Sì, queste condizioni hanno un'enorme influenza sulla direzione
generale del genio, ma più ancora sul colorito, sull'aspetto delle sue
opere. Così lo smagliante stile di Victor Hugo si deve certo al
predominio eccessivo dei centri visivi, all'esser egli un visivo per
eccellenza, lui che si ispira nei primi versi de Les orientales ai
tramonti di Parigi; e così dicasi degli abbaglianti, luminosi quadri del
Segantini, che, a quattro anni, cadendo in un fiume, non resta
colpito che dal bagliore dell'acqua e dalla ruota del mulino; come il
predominio dei centri olfattivi entra nelle opere di Zola per molta
parte, come il predominio dei centri acustici che fan discernere ad
Helmoltz i toni musicali nella cascata del Niagara, dev'essere entrato
per molto nella scelta e nella condotta delle sue ricerche tanto
originali d'acustica, elevata da lui a nuova scienza. Ma oltre che vi
sono genî, come il Leopardi, in cui l'ottusità e la depressione nei
centri visivi, olfattivi, ecc., non solo non impedirono di dare, ma anzi,
dando insueto predominio ai centri chenestetici, impressero alle
opere loro quel singolare colorito che ci strappa una così nuova ed
universale commozione come quando ammiriamo i quadri dei
notturni Norvegesi, bisogna pur aggiugnere che il campo della
genialità è troppo vasto e insieme troppo suddiviso, perchè vi
predomini solamente quell'influenza. Date pure una parte
d'influenza, e grande, all'essere uno visivo piuttostochè auditivo; ma
se un visivo può divenire scultore, come poeta, o istologo, o statista,
o magari calcolatore-prodigio, che vede allineate nella mente le cifre
da calcolare, questo predominio non basta da solo a determinare la
scelta della varietà geniale.
Di più: dato un genio matematico puro (e spesso, come vedemmo
sopra, il grande matematico è anche un forte musico), egli ha
sempre da scegliere fra la fisica, la chimica, la zoologia, ecc., mentre
il genio immaginativo può scegliere fra poesia, musica, pittura, ecc.
Per ciò, pur tenendo conto di queste varie attitudini come di una
causa predisponente grandissima della varietà geniale, dobbiamo
studiare di trovarne ancora quella che ne è la causa più specifica, più
diretta.
CAPITOLO V.
Influenza della pubertà.
Ora, chi analizzi le biografie dei grandi uomini, di cui si conosce la
prima giovinezza, trova la causa predominante della loro speciale
genialità nell'immensa influenza che viene dal combinarsi di una data
fortissima impressione sensoria, di una data forte emozione,
consona, ben inteso, alle tendenze organiche e al grande sviluppo
mentale dell'individuo geniale col momento vicino alla pubertà, in cui
il genio, essendo in istato nascente e per ciò più soggetto agli stati
emotivi, ha la maggiore tendenza a fissarsi per sempre in una più
che in altra direzione,
E qui le prove sovrabbondano.
Così, per esempio, di Segantini bimbo, seppellito in un riformatorio, i
superiori, nella loro sapienza burocratica, volevano fare un calzolaio;
fortunatamente, egli fugge dai suoi singolari patroni nella nativa
montagna, dove, pastore, ritrae inconscio, e senza darvi alcuna
importanza, montoni e casolari; ma quando a 12 anni vede morire
una bambina e sente la madre straziarsi per non poterne conservare
l'immagine, egli si sente ispirato a farne il ritratto e da quel giorno
diventa il grande Segantini. Il combinarsi di una forte impressione
morale e fisica nell'esordire della pubertà in un ingegno visuale così
poderoso ha fatto di lui un pittore geniale.
Così Proudhon era un povero figlio di un boscaiolo; il curato gli aveva
insegnato un po' di latino e i Benedettini di Cluny qualche po' di
disegno: a 14 anni, mentre egli tentava di copiare da sè alcuni brutti
quadri del convento, fabbricandosi i colori col succo delle piante e i
pennelli coi crini di un mulo, fu avvertito da un frate che con quei
suoi strani mezzi a nulla sarebbe riuscito, perchè quei quadri erano
ad olio: bastò ciò perchè egli ritrovasse da sè la pittura ad olio, come
Pascal trovò la geometria.
Stuart Mill è a 12 anni così colpito dallo studio della Storia dell'India
del padre suo, che da quel giorno data la sua genialità.
Arago, figlio di un avvocato, precoce nel leggere la musica, si
occupava di autori classici; la passione per le matematiche gli sorse
tutta a un tratto nel sentire da un ufficiale del genio com'egli fosse
giunto rapidamente al suo grado, uscendo dalla Scuola politecnica,
dove si studiava matematica. Abbandona allora Corneille per darsi
alle matematiche, che studia da sè, e a 16 anni era pronto per
l'esame al Politecnico.
Tommaso Joung, precoce sì che a due anni leggeva e a cinque aveva
imparato un gran numero di poemi inglesi e latini che recitava a
mente, vede a otto anni presso un agrimensore gli strumenti per
misurare le distanze e l'elevazione dei corpi lontani: tosto si mette a
studiare un trattato di matematica per capire la struttura di siffatti
arnesi: e finisce a costrursi da sè un microscopio per studiare la
meccanica e imparare il calcolo differenziale[12].
Galileo, fino al 17º anno, non aveva fatta alcuna rilevante scoperta:
si sentiva, sì, inclinato alle scienze esatte, e per ciò aborriva le
inesattezze dei metafisici e dei medici di quell'epoca; fu solo quando,
al 18º anno, il terzo dei suoi studi in medicina, egli vide nella chiesa
maggiore di Pisa una lampada, mossa dal vento, percorrere lo spazio
in tempo uguale, che pensò subito ad uno stromento — il pendolo —
per studiare l'isocronismo del tempo e stabilire con grafiche e precise
leggi la maggiore o minore velocità del polso; e da questo passò agli
altri studi fisici.
Lioy, nel Primo passo di Martini, confessa che aveva 8 anni quando,
essendogli nato un fratellino, fu chiuso in una biblioteca, perchè non
disturbasse la madre, e gli fu dato a leggere un volume di Buffon. Fu
questo la scintilla del suo ingegno: "Mi par di vedere ancora — egli
scriveva — quegli uccelli; io li sognava tutta la notte; il mio grado di
aiutante naturalista era raggiunto".
Di Poisson[13] i parenti volevano fare un chirurgo-flebotomo e lo
affidarono ad uno zio, che pretendeva educarvelo, facendogli
pungere con la lancetta le venature delle foglie dei cavoli; ma egli
sbagliava sempre: quando un giorno, fra gli 8 o 9 anni, trova un
programma della Scuola politecnica e sente che può sciogliere e
scioglie immediatamente alcuni di quei quesiti; la sua carriera era
trovata.
Lafontaine era figlio di un burocratico e scribacchiava versi di poca
importanza, quando gli cadde sotto mano la bella ode di Malherbe
sulla morte di Enrico IV. Allora comprese di essere poeta e lo fu.
Gianni (Biografia universale) divenne poeta quando lesse l'Ariosto;
egli allora, poco più in là dell'età della pubertà, improvvisò versi
prima ancora di aver imparata l'arte di comporli.
Lagrange non aveva grandi attitudini per gli studi: il suo genio si
rivelò al secondo anno di liceo quando lesse uno scritto di Halle;
gettò giù allora il suo Primo saggio sul metodo delle variazioni.
Rusckin, dall'aver veduto a 15 anni, una sera d'estate del 1833, da
un elevato giardino di Sciaffusa, come confessa nel suo volume del
Præterita, gl'illimitati, alti, affilati contorni delle Alpi disegnarsi sul
cielo rosso, ebbe l'ispirazione di quella nuova estetica che sviluppava
più tardi.
In questi casi non è che la sensazione abbia provocato il genio, ma
fu l'occasione, perchè si rivelasse e s'incanalasse in un dato indirizzo;
essa ha determinato, insomma, un individuo, predispostovi
organicamente, a rivolgersi, a salpare per quella mèta, d'onde le
circostanze, l'educazione, ecc., tendevano forse a deviarlo.
Così Darwin, come dicemmo, era predisposto alle grandi sintesi
naturalistiche dall'eredità atavica, essendo parecchi dei suoi avi
indirizzati verso la stessa sua strada, e l'ingegno suo già
precocemente se ne era rivelato, fino a un certo punto, con l'idea di

More Related Content

PPT
Ricerca Operativa - AMPL
ODP
Lezioni 2009
PDF
X-NERVal e Component NER
PPT
A static Analyzer for Finding Dynamic Programming Errors
PDF
Test Bank for Java Software Solutions, 9th Edition John Lewis
PDF
Dsp cosa sono i digital signal processor - seconda parte - 2010-10-19
PPT
Profilazione di applicazioni PHP con XHProf.
PPT
Virtualizzare Nanosoft
Ricerca Operativa - AMPL
Lezioni 2009
X-NERVal e Component NER
A static Analyzer for Finding Dynamic Programming Errors
Test Bank for Java Software Solutions, 9th Edition John Lewis
Dsp cosa sono i digital signal processor - seconda parte - 2010-10-19
Profilazione di applicazioni PHP con XHProf.
Virtualizzare Nanosoft

Similar to Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition (20)

PDF
Hadoop analyzerJR
DOC
Assembly and Reverse Engineering
DOCX
appunti degli argomenti di informatica trattati dal primo al terzo anno di liceo
PPT
Riepilogo Java C/C++
PDF
Attacchi alle applicazioni basati su buffer overflow
PPT
Quickr In Real Life - casi di successo di QuickR
PDF
Hadoop in action!
ODP
Snort React per Webfiltering : "Soluzioni per le Leggi-Lista"
PDF
Jvm performance Tuning
PDF
Corso di Basi e Fondamenti di Programmazione in C++ Lezione 1
PPTX
Data Warehouse e Business Intelligence in ambiente Oracle - Il sistema di mes...
PPT
Introduzione al linguaggio PHP
PDF
Hadoop [software architecture recovery]
ODP
DDive11 - Notes Moon Attack
PDF
Get Solution Manual for C++ How to Program 10th by Deitel Free All Chapters A...
PDF
DotNetToscana - Sessione TypeScript
PPTX
PDF
PPTX
GWT Development for Handheld Devices
PPT
Xml annessi e connessi
Hadoop analyzerJR
Assembly and Reverse Engineering
appunti degli argomenti di informatica trattati dal primo al terzo anno di liceo
Riepilogo Java C/C++
Attacchi alle applicazioni basati su buffer overflow
Quickr In Real Life - casi di successo di QuickR
Hadoop in action!
Snort React per Webfiltering : "Soluzioni per le Leggi-Lista"
Jvm performance Tuning
Corso di Basi e Fondamenti di Programmazione in C++ Lezione 1
Data Warehouse e Business Intelligence in ambiente Oracle - Il sistema di mes...
Introduzione al linguaggio PHP
Hadoop [software architecture recovery]
DDive11 - Notes Moon Attack
Get Solution Manual for C++ How to Program 10th by Deitel Free All Chapters A...
DotNetToscana - Sessione TypeScript
GWT Development for Handheld Devices
Xml annessi e connessi
Ad

Recently uploaded (8)

PDF
NGÂN HÀNG CÂU HỎI TÁCH CHỌN LỌC THEO CHUYÊN ĐỀ TỪ ĐỀ THI THỬ TN THPT 2025 TIẾ...
PDF
Presentazione educazione finanziaria e informazione.pdf
PDF
Presentazione di Chimica sui Coloranti Alimentari
PDF
NGÂN HÀNG CÂU HỎI TÁCH CHỌN LỌC THEO CHUYÊN ĐỀ TỪ ĐỀ THI THỬ TN THPT 2025 TIẾ...
PDF
Critico_o_creativo_Approcci_al_testo_let.pdf
PPTX
San Giovanni Eudes, 1601 – 1680, sacerdote e fondatore francese.pptx
PPTX
Santa Rosa da Lima, Vergine, Penitente, Terziaria Domenicana 1586-1617.pptx
PDF
NGÂN HÀNG CÂU HỎI TÁCH CHỌN LỌC THEO CHUYÊN ĐỀ TỪ ĐỀ THI THỬ TN THPT 2025 TIẾ...
NGÂN HÀNG CÂU HỎI TÁCH CHỌN LỌC THEO CHUYÊN ĐỀ TỪ ĐỀ THI THỬ TN THPT 2025 TIẾ...
Presentazione educazione finanziaria e informazione.pdf
Presentazione di Chimica sui Coloranti Alimentari
NGÂN HÀNG CÂU HỎI TÁCH CHỌN LỌC THEO CHUYÊN ĐỀ TỪ ĐỀ THI THỬ TN THPT 2025 TIẾ...
Critico_o_creativo_Approcci_al_testo_let.pdf
San Giovanni Eudes, 1601 – 1680, sacerdote e fondatore francese.pptx
Santa Rosa da Lima, Vergine, Penitente, Terziaria Domenicana 1586-1617.pptx
NGÂN HÀNG CÂU HỎI TÁCH CHỌN LỌC THEO CHUYÊN ĐỀ TỪ ĐỀ THI THỬ TN THPT 2025 TIẾ...
Ad

Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition

  • 1. Solution Manual for Computer Organization & Architecture Themes and Variations, 1st Edition install download https://testbankmall.com/product/solution-manual-for-computer- organization-architecture-themes-and-variations-1st-edition/ Download more testbank from https://testbankmall.com
  • 2. Instant digital products (PDF, ePub, MOBI) available Download now and explore formats that suit you... Solution Manual for Computer Organization and Architecture, 11th Edition, William Stallings https://testbankmall.com/product/solution-manual-for-computer- organization-and-architecture-11th-edition-william-stallings-2/ testbankmall.com Computer Organization and Architecture 10th Edition Stallings Solutions Manual https://testbankmall.com/product/computer-organization-and- architecture-10th-edition-stallings-solutions-manual/ testbankmall.com Computer Organization and Architecture 10th Edition Stallings Test Bank https://testbankmall.com/product/computer-organization-and- architecture-10th-edition-stallings-test-bank/ testbankmall.com Solution manual for Supply Chain Logistics Management Bowersox Closs Cooper 4th edition https://testbankmall.com/product/solution-manual-for-supply-chain- logistics-management-bowersox-closs-cooper-4th-edition/ testbankmall.com
  • 3. Solution manual for Intermediate Accounting Kieso Weygandt Warfield Young Wiecek McConomy 10th Canadian Edition Volume 1 https://testbankmall.com/product/solution-manual-for-intermediate- accounting-kieso-weygandt-warfield-young-wiecek-mcconomy-10th- canadian-edition-volume-1/ testbankmall.com Basic Statistics for Business and Economics Canadian 5th Edition Lind Solutions Manual https://testbankmall.com/product/basic-statistics-for-business-and- economics-canadian-5th-edition-lind-solutions-manual/ testbankmall.com Test Bank for Advanced Accounting, 14th Edition, Joe Ben Hoyle, Thomas Schaefer, Timothy Doupnik https://testbankmall.com/product/test-bank-for-advanced- accounting-14th-edition-joe-ben-hoyle-thomas-schaefer-timothy-doupnik/ testbankmall.com Test Bank for Financial Accounting in an Economic Context, 10th by Pratt https://testbankmall.com/product/test-bank-for-financial-accounting- in-an-economic-context-10th-by-pratt/ testbankmall.com Test Bank Fundamentals Nursing Care Skills 2nd Edition Ludwig Burton https://testbankmall.com/product/test-bank-fundamentals-nursing-care- skills-2nd-edition-ludwig-burton/ testbankmall.com
  • 4. Test Bank for Marketing, 15th Edition, Roger Kerin, Steven Hartley https://testbankmall.com/product/test-bank-for-marketing-15th-edition- roger-kerin-steven-hartley/ testbankmall.com
  • 5. 2 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. 4. Why is the performance of a computer so dependent on a range of technologies such as semiconductor, magnetic, optical, chemical, and so on? SOLUTION Consider a computer’s memory that uses the widest range of technologies. In an ideal world, a computer would have a large quantity of low‐cost, very fast, non‐volatile memory. Unfortunately, fast memory such as DRAM is expensive and volatile. Non‐volatile memory such as magnetic disk is (usually) slow and cheap. Real computers use a combined memory system that makes the computer appear as if it really did have fast, cheap non‐volatile memory. That is, by combining memories fabricated with different technologies, the computer manufacturer can hide the negative characteristics of specific technologies.
  • 6. 3 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. The fastest memory is cache (usually fast static semiconductor RAM) used to hold frequently‐used data. The bulk of the immediate access memory is normally DRAM (typically 4 Gbyte today). This semiconductor dynamic memory holds data and working programs, but is volatile and DRAM must be loaded from disk. A hard disk that stores data by magnetizing the surface of a platter holds programs that are archived and that have to be loaded when the user requires them. The hard disk drive is very slow but non‐volatile. Flash memory is non‐volatile semiconductor memory used to hold semi‐fixed data (e.g., the BIOS) and CD/DVD is optical memory designed to allow interchangeable media. Semiconductors themselves are the result of complex technological processes. Even the structure and chemical composition of transistors change. New materials are constantly emerging for use in display systems. 5. Modify the algorithm used in this chapter to locate the longest run of non‐consecutive characters in the string. SOLUTION At any instant you are either in a run of consecutive elements or you are not. If the current element differs from the previous element, you are in a run of non‐consecutive elements so you increment the counter and continue. If the current element is the same as the previous element, you are no longer in a sequence of non‐ consecutive elements and you clear the non‐consecutive element counter. The following presents the code both as ARM assembly language and pseudocode (to the right of the semicolons). START AREA NonSequential, CODE, READONLY ADR r8,Sequ ;Point to sequence MOV r1,#0xFF ;Dummy old element ($FF is not a legal element) MOV r3,#1 ;Preset longest non-sequential element length to 1 MOV r2,#1 ;Preset current non-sequential element length to 1 Rep LDR CMP r0,[r8,#4]! r0,#0xFF ;Repeat: read element and point to next ; If terminator BEQ Exit ; THEN exit CMP BEQ ADD r1,r0 Same r2,r2,#1 ;Are new and ;If not same the last element the same? THEN increment non-sequential counter MOV r1,r0 ;Old element becomes new element CMP r3,r2 ;Compare current sequence length with highest BGE MOV B Rep r3,r2 Rep ; ; ; IF lower than or same repeat (goto line ‘Rep’) ELSE save new longest run and repeat Same MOV r2,#1 ;Clear current not-in-sequence count B Rep ; then repeat Exit B Exit ;Termination point Sequ DCD 1,2,3,3,3,2,2,4,5,3,2,1,1,1,1,1,4,0xFF ;List for testing END 6. I was once criticized for saying that Charles Babbage was the inventor of the computer. My critic argued that Babbage’s proposed computer was entirely mechanical (wheels, gears, and mechanical linkages) and that a real computer has to be electrical. Was my critic correct? SOLUTION I believe not.
  • 7. 4 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. There is no fundamental rule that states that a machine such as a computer must have a preferred embodiment. A computer can be mechanical, electronic, quantum mechanical, biological, or chemical. What is required to implement a computer (as we understand the term) is a means of: • storing information (memory), • reading information from memory, • decoding the information, • executing the instructions corresponding to this information, • writing back the information. Moreover, for a computer to perform general‐purpose tasks, it must be capable of conditional behavior; that is, the result of one operation must select between two or more alternative courses of action. Otherwise, the computer would always execute the same sequence of operations irrespective of the data. Of course, a practical computer cannot be mechanical because of the slowness of moving parts compared to electrons in solids. However, one day mechanical computer may be created by using movement at the atomic level (e.g., changing the position of atoms in a crystal or moving nanotubes). 7. What is the effect of the following sequence of RTL instructions? Describe each one individually and state the overall effect of these operations. Note that the notation [x] means the contents of memory location x. a. [5] ← 2 b. [6] ← 12 c. [7] ← [5] + [6] d. [6] ← [7] + 4 e. [5] ← [[5] + 4] SOLUTION [5] ← 2 The value 2 is loaded into (memory) location 5 [6] ← 12 The value 12 is loaded into location 6 [7] ← [5] + [6] The sum of the contents of locations 5 and 6 are loaded into location 7. In this case, the value 2 + 12 = 14 is loaded into location 7 [6] ← [7] ‐ 9 The contents of location 7 (i.e., 14) minus 9 are loaded into location 6; that is, location 6 is loaded with 5. [5] ← [[5] + 4] The contents of location 5 are read and then 4 is added to the result. This new value (i.e., 2 + 4 = 6) is loaded into memory location 5. The contents of 6, i.e., 5, are loaded into location 5. At the end of this code fragment [5] = 5, [6] = 5, [7] = 14 8. What are the differences between RTL, machine language, assembly language, high‐level language, and pseudocode? SOLUTION RTL (register transfer language) is an algebraic notation used to define machine‐level operations such as the transfer of data between registers. Consider the notation: [r6] ← [r3] + 4 This means that the contents of register r3 are read and 4 added to that value. The total is then copied into register r6.
  • 8. 5 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. Machine language is the actual binary code executed by a computer. For example, the binary sequence 1100101000000001 might mean increment the contents of register r1. However, this meaning would apply only to a specific computer. Assembly language is the human‐readable form of machine language; that is, it is a representation of machine language in terms of mnemonics; for example, in a specific assembly language, MOVE.B D3,(A4) means add the byte pointed at by register A4 to the contents of register D3. However, an assembly language normally has special or additional features that make it easier for a programmer to generate code (e.g., the ability to integrate libraries of functions in a program). High‐level language is a computer language that has been designed to facilitate programming. There is no link between a high‐level language and the underlying machine code. (However, it would be possible to design a specific architecture that executed a high‐level language directly). All programs written in high‐level languages have to be compiled into machine code prior to execution (or interpreted line‐by‐line by an interpreter during execution). Typical high‐level languages are C, Java, LISP, and Python. Pseudocode is an informal high‐level language used by programmers to express algorithms. Pseudocode is often a sequence of operations expressed in almost plain English. For example: Repeat Add a new number to the total Until all numbers have been added 9. What is a stored‐program machine? SOLUTION A stored program or von Neumann machine is a general‐purpose digital computer that stores programs and data in the same memory. Instructions are processed in a two‐phase cycle called fetch and execute; that is, the instruction pointed at by the program counter (also called the instruction pointer) is read from memory, fetched into the computer, decoded, and then executed. Since an instruction might be of the form LOAD X or STORE Y, or ADD Z,5, a second memory access may take place to read or write to the operand in memory. 10. I would maintain that conditional behavior is the key element that makes a computer a computer. Conditional behavior is implemented at the machine level by operations such as BEQ XYZ (branch to instruction XYZ) and at high‐level language level by operations such as IF x == y then do THIS else do THAT. Why are such conditional operations so necessary to computing? SOLUTION Without conditional behaviour, each program would consist of a sequence of operations that were always executed in the same way every time the program was run. For example; you could build a computer to evaluate π to 50 decimal places by using a sequence of arithmetic operations without conditional operations. Conditional operations allow a computer to change the sequence of operations it will execute, according to the outcome of a test. For example, when simulating a game of chess, a computer may first move each chess piece onto a different square and then evaluate the goodness or figure of merit of that position. That calculation can be done without conditional behavior. Suppose at a given stage of play there are seven possible moves, and the figures of merit of the moves are 2, ‐3, ‐10, 20, 1, 0, 9 with the highest number signifying the best. In this case the computer would select the move with the figure of merit 20 as best and then continue from that point. It is this conditional behavior that gives the computer its great power.
  • 9. 6 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. 11. What are the relative advantages of one‐address, two‐address, and three‐address computer architectures? SOLUTION From a programmer’s point of view the difference is between elegance and verbosity. For the purpose of this question we will assume that an address refers to a location in memory (I make this point because you could also regard a register as an address, for example, r3, r5, r12). A three‐address machine allows you to specify three operands in a single instruction, which lets you implement an operation like P = Q + R in the form ADD P,Q,R. Here, P, Q, and R are the three addresses of the three operands in memory (or they could be registers). Such an instruction would access memory three times during its execution phase. A one‐address machine specifies only one address, which means that all operations must take place between the contents of a memory location and an implicit internal register (sometimes called the accumulator). To execute P = Q + R we would force you to write something like LDA P ;Load accumulator with P ADD Q ;Add Q to P in the accumulator STA R ;Store accumulator in R This is inelegant code and the accumulator is a bottleneck because you have to keep loading and storing as all data goes through the accumulator. A two‐address machine allows you to specify two operands, which means that one operand acts as a source that is overwritten by the result. For example, ADD P,Q adds P to the contents of Q. The old contents of Q are lost. Although there are no three‐memory‐address machines, RISC processors like MIPS or ARM use a three‐address instruction format and specify three registers, for example, ADD r1,r2,r3. Most real computers fall into one of two categories; those that have three register addresses (like ARM and MIPS), and those that have two addresses (like Intel’s IA32 architecture). Three‐address machines must also provide two memory access instructions, load and store, that transfer data between registers and memory. Some two‐address computers are called one and a half address machines because they use one memory address and one register address. You could say that such a machine is essentially a one‐address machine with multiple accumulators (e.g., Intel’s IA32 series). One‐address machines are simple devices and are implemented as 8‐bit microcontrollers in low‐cost applications. This course does not deal with these devices. The relative advantages of two‐ and three‐address machines are debatable and both processor architectures continue to thrive. Some would argue that a three‐address (RISC‐style) processor should be faster than a two address machine because all data processing operations are applied to registers that have a far faster access time than memory. 12. What is the difference between a computer’s architecture and its organization? SOLUTION A computer’s architecture is an abstraction; that is, it is the assembly language programmer’s view of the computer in terms of its instruction set. A knowledge of a computer’s architecture is necessary to write (machine‐level) programs that run on the computer.
  • 10. 7 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. A computer’s organization is the actual organization or structure of the hardware that implements the architecture. Any given architecture can be implemented by many different computer organizations. A computer’s organization determines its price‐to‐performance ratio. In short, architecture tells us what a computer does and organization tells us how it does it. Today, the term microarchitecture is sometimes used in place of organization. 13. Can you think of other systems besides computers that may be said to have both an architecture and an organization? SOLUTION The clock or watch falls into this category. Its architecture is determined by its dial and functions (date, stopwatch etc.). Its organization determines how it calculates the time; for example, mechanical clockwork, analog electronics driving a stepper motor to move the hands, or digital electronics. Automobiles are another example: some automobiles have identical functionalities. However their organization (gasoline or diesel, turbocharged or normally aspirated engine) determines their size, speed, and price. 14. What is the difference between an exo‐ and an endo‐architecture? SOLUTION Dasgupta popularized the terms exo‐architecture and endo‐architecture. The exo‐architecture of a computer is the external view (or black box view) of its architecture. The endo‐architecture is a description of a computer’s architecture at the level of its implementation. For example, the exo‐architecture refers to the add instruction and the endo‐architecture refers to what an adder does. These two terms correspond to ‘architecture’ and ‘organization’ as used in this text. 15. Over the years, has more computer progress been made in computer architecture or computer organization? SOLUTION It is difficult to precisely quantify progress in these two aspects of the computer. The question should be interpreted to mean greater relative progress. It appears to me that greater progress has been made in the area of organization rather than in architecture. For example, the programmer’s model of Intel’s IA32 architecture has not changed greatly since the 80386. However, the performance of this family has changed massively in the same period. Much of this performance is due to technological advances in manufacturing, and in organization (e.g., the use of on‐chip cache memory, pipelining, branch predication, parallel processing, and so on). 16. What is the semantic gap and what is its importance in computer architecture? You will need to use the Internet or library to answer this question. SOLUTION Humans write code in high‐level languages like C and Java. Computers execute code in low‐level languages like the Intel IA32 instruction set. The compiler translates a high‐level language into low‐level language (in machine code form) that can run on an actual processor. The difference between high‐ and low‐level languages is called the semantic gap. If a computer were constructed that directly executed C code, then there would be no semantic gap.
  • 11. 7 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. 17. What is the difference between human memory and computer memory? SOLUTION A computer’s random access memory is normally accessed by applying an address to interrogate the contents of a specific location within the memory. Human memory appears to be associative. That is, it is searched by providing data as a key rather than address. Memory cells containing that key then respond. For example, the key might be “red” and responses might be “sunset”, “color”, “rainbow”, and so on. Associative memory is accessed in parallel with a key that is fed to all locations simultaneously. In other words, you access associative memory rather like a web search, by means of a query. Currently, we cannot construct large semiconductor associative memories, because it would mean accessing millions of locations simultaneously and matching the contents of each location with the key. Associative memory is also called CAM (content accessible memory). Small amounts of associative memory are used in specialized applications such as high‐speed address translation in memory management units. 18. What is the von Neumann bottleneck? SOLUTION The von Neumann machine operates in a fetch/execute cycle with a common memory holding both instructions and data. This means that memory must be accessed (typically) twice for each instruction – once to read the instruction and once to access the operand used by that instruction. Consequently, the path between the computer and memory becomes a bottleneck. The use of separate data and instruction caches can help overcome some effects of the bottleneck. 19. Suppose Intel did not develop the first microprocessor. Was the microprocessor inevitable? In my view yes. At the time microprocessors appeared, everything that was needed was in place: microtechnology and semiconductor manufacturing were growing, the computer and minicomputer existed, calculators existed. Small and medium‐scale logic elements were being produced. There was a need for the microprocessor. All these factors made the microprocessor inevitable. SOLUTION 20. Identify as many enabling technologies as you can that were required before the computer could be constructed. SOLUTION In order to design a mechanical computer of the type envisaged by Babbage, you need chemistry and metallurgy to create the working parts (moving cog wheels and levers and linkages), and engineering technology to create the machines required to build the computer. For an analog computer you need the development of the theory of electronics, the construction of active (amplifying) devices such as vacuum tubes and transistors, and the availability of components such are resistors, capacitors, inductors, diodes, etc., that are the basic elements of all analog circuits. For the construction of electromechanical computers (i.e., those using relays) you need some of the same components as general analog circuits plus relays that require the construction techniques of the watch‐maker (a relay has moving marts actuated by electromagnets). For the construction of the electronic digital computer, you need the development of active devices (vacuum tubes or transistors) that can be used to make gates and bistable elements (flip‐flops). Of course, to construct practical computers, you need to develop a wide range of technologies: electronics to process signals and
  • 12. 8 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. transmit data from point‐to‐point over both short and long distances. You need the development of magnetic and optical technologies as these form the basis of many storage systems. You need the development of display technologies (the CRT, LCD, printer, and so on). Note that many of the technologies are ‘universal’ in the sense that using a technology in one field means that it can be applied in other areas; for example, the technology used to build a CPU is almost identical to that used to create an LCD display. I asked this question because some introductory texts on computer architecture and organization seem to imply that the computer suddenly emerged. The typical discussion of computers goes something like ...abacus... Babbage analytical engine … ENIAC… PC. In fact, rather a lot happened between Babbage and ENIAC. Much of the driving force behind the computer was the result of the development of the telegraph and telephone networks. These required the development of metallurgy (metals and wires, magnetics), chemical processing (insulators for wires), fabrication and manufacturing, battery technology, and the development of circuit theory and transmission lines (the behavior of signals in networks). The design of mechanical and electromechanical switching networks for telephone exchanges gave rise to the body of theory that would later be used to create binary and logic circuits. The vacuum tubes that were used as amplifiers in switching circuits and memories required the development of complex chemistry (cathodes), high‐ vacuum technology, and a theory of the behavior of electrons in electrostatic fields. Even cosmology played a role in the history of the computer because circuits developed to detect cosmic rays in high‐altitude balloons were later adapted as pulse counters in the first generation of vacuum‐tube‐based computers. The development of the computer required a massive amount of progress across numerous fronts. 21. Suppose Babbage had succeeded in creating a general‐purpose mechanical computer that could operate at, say, one operation per second. What effect, if any, do you think it might have had on Babbage's Victorian society? SOLUTION Technology is often interlinked. A development in one area is made because there is a need for that development. Technology often develops across a broad front (chemistry, materials science, engineering, electronics and so on). Had Victorian society developed mechanical computers (of the form envisaged by Babbage), engineering and scientific calculations may have been improved, but I doubt whether there would have been a major impact on society. It was the development of the chemical industries and the beginning of electronics that led to our modern society. 22. Use the method of finite differences to calculate the value of 15 2 N N 2 Δ1 Δ2 1 1 2 4 3 3 9 5 2 4 16 7 2 5 25 9 2 SOLUTION In the above table we’ve provided the integers 1 to 5 and their squares. The Δ1 column contains the differences between successive squares and the Δ2 column contains the difference between successive differences (this is called the second difference). You can see that the second difference is always 2. Using this and addition we can build up the following table. Below is the table from 4 onward with the seconds and first differences. We can add the second differences to the N 2 column to complete the table.
  • 13. 9 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. N N 2 Δ1 Δ2 4 16 7 2 5 25 9 2 6 36 11 2 7 49 13 2 8 64 15 2 9 81 17 2 10 100 19 2 11 121 21 2 12 144 23 2 13 169 25 2 14 196 27 2 15 225 29 2 23. Extend the method of finite differences to calculate the value of 8 3 and 9 3 . SOLUTION N N 3 Δ1 Δ2 Δ3 1 1 2 8 7 3 27 19 12 4 64 37 18 6 5 125 61 24 6 6 216 91 30 6 7 343 127 36 6 8 512 169 42 6 9 729 217 48 6 In this case we’ve written the values of the cubes up to 5. Observe that the third difference is a constant 6. Now the table can be continued by constructing the third, second, and first difference columns to generate the column of cubes without multiplication. 24. Suppose you decided to try and make computers more ‘human’ and introduce the ‘random element.’ How would you do that? SOLUTION It is possible to make computers random in the sense that we can create random numbers and then use a random number as a means of choosing the outcome of a decision; that is, creating a random element. Random numbers can be generated by taking random noise and converting it into 1s and 0s (random noise is the background hiss present on some radio signals). Random numbers can also be created mathematically by starting with a seed (an initial number) and then applying successive mathematical operations to create a sequence of numbers that appear to be random. These are called pseudo‐random numbers because the same seed always generates the same sequence. It would be possible to model some aspects of human thought processes by using random numbers to ‘make a guess’; for example, to model a decision that is 90% certain you could create a random number in the range 0.0 to 1.0 and then take the decision if the random number is less than 0.9. This speculation belongs to the world of artificial intelligence.
  • 14. 10 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. 25. Computers always follow blind logic. Executing the same program always gives the same results. That’s what the computer books say. But is it true? My computer can appear to behave differently on different occasions. Why do you think that this might be so? SOLUTION In principle, you would think that computers are entirely predictable and you always get the same response to the same actions. In practice, clicking on an icon may sometimes work and sometimes cause a crash. Why? Of course, it is true that basic computer operations always yield the same results using the same data; for example, if you perform the operation a = f(b,c) you will always get the same value of a for data b and c and operation f. However, computers are complex systems and are not entirely synchronous; for example, the state of a signal from an external device may be sampled (read) and it may be read as a 1 or 0, depending at which instant it is sampled. In a sophisticated system with memory management, data may sometimes be in memory and sometimes on disk. If data is read from cache it may be available in 1 clock cycle, getting it from main store may take 50 cycles before it is available. If the data is on disk, it may take more than 20 million clock cycles to retrieve it. Whether data is immediately available or requires a very significant wait is dependent on the current job load. The interaction between individual jobs, asynchronous events such as interrupts and data transmission, means that it is difficult to predict the operation of a computer in many circumstances. Note that, under certain circumstances, the sampling of digital signals can lead to transitory, random errors called glitches. The study of systems that require guaranteed behavior (industrial process controls, fly‐by‐wire aircraft, and nuclear reactors) is a branch of computing called real‐time systems. In real‐time systems the hardware and software are constructed to take account of the effect of the problems we have highlighted and to minimize them. In the 1980s a processor called the Viper was designed in the UK (sponsored by the UK Ministry of Defence) for applications that required predictability. 26. The value of X is 7. Some computer languages (or notations) interpret X+1 as 8 and others interpret it as Y. Why? SOLUTION In everyday life (i.e., natural language), we do not distinguish between the name of a variable, its address, and its value. When we say, X = X + 1, we mean that the value we have given the variable X is incremented by 1 to become 8. X is the name of the variable whose value is 7. If we regard X as the representation of the character X, then X is 0x58 (the ASCII code for X). Adding 1 to X gives us 0x59 which is the ASCII code for Y. Some computer languages allow you to operate on the name of a variable. This question demonstrates that it is important to appreciate the difference between name, address, and value. 27. Carry out the necessary research and write an essay on the history of the development of computer memory systems (e.g., CRT memory, delay‐line stores, ferrite core stores, etc.) SOLUTION This is an open‐ended question. Some professors might require a short note highlighting the details and others may require an extended essay covering memory technologies and the biographies of those involved. Historically, the first form of computer memory was the punched card. This was used in the Jacquard loom in 1801 to control the weaving of patterns in textiles – a hole or no hole at a point in a card could be used to cause
  • 15. 11 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. the horizontal thread to go in front of or behind the vertical threads. Babbage proposed the punched card as a storage mechanism in his analytical engine. Early EDVAC and ACE computers used mercury delay lines to store data. Information was converted into pulses in columns of mercury and the pulses were continually recirculated. Mercury delay lines are impractical because you have to wait for the data you want to reach the end of the tube where it is read and recirculated. One of the very first random access fully electronic storage devices was the Williams tube that stored data as an electrostatic charge on the surface of a cathode ray tube. These had small storage capacities but they made possible some of the first computers at the end of the 1940s and the beginning of the 1950s. Drum memories appeared in the late 1940s. These used a drum or cylinder as a magnetic recording device; that is, it was rather like a 3‐dimensional hard disk (instead of coating a flat platter with a magnetic material, the surface of a rotating drum was coated with a magnetic material). Data was written along tracks and the disk rotated. This was also a non‐random access device, but it could store more data than previous technologies. Jay Foster investigated the properties of ferromagnetic materials at MIT in 1949 and this work led to the development of the ferrite core memory used by the Whirlwind I computer in 1953. The ferrite core stored binary data as clockwise or anticlockwise magnetization in a tiny ferrite bead. This allowed random access and relatively high speeds (e.g., 1 µs). Ferrite core memory dominated computing for three decades. Today’s mainstream semiconductor memory is constructed with DRAM, dynamic memory that stores data as an electrostatic charge in a transistor. DRAM was first commercially produced by Intel in 1970. It is still the dominant form of main store in computers today. Secondary storage has been implemented as paper tape (obsolete) magnetic tape (still going strong in its modern forms), and disk drives. Magnetic tape recording was invented in Germany in 1928. The first use of tape to record data was in 1951 on the UNIVAC I. The disk drive uses a flat rotating platter with data recorded in concentric tracks on a magnetized surface. It is the same as tape in principle. The first disk drive was introduced by IBM in 1956 in their RAMAC computer. The first relatively low‐cost hard disk drive appeared in 1973 as the IBM 3340 Winchester drive. Today, the hard disk drive has evolved into small, low‐cost systems with capacities of the order of 3 TB. The hard‐disk drive is contrasted with the floppy‐disk drive. The floppy disk drive (now virtually obsolete) used low‐cost plastic disks to store data in the early days of the PC revolution (e.g., capacities of 360 KB, 720 KB, 1.4 MB and 2.88 MB). These capacities are miniscule today and the flash drive has totally replaced the floppy disk drive. Although the PC revolution owes everything to the floppy magnetic disk, this recording medium is now almost entirely forgotten. 28. Of all the early computers, which do you think should be called the first computer if you are judging the world by today’s standards? SOLUTION This question is difficult, if not impossible, to answer. The person closely associated with an invention in the public’s mind is not necessarily the person who really made the invention. For example, Edison didn’t invent the incandescent light. Similarly, many now believe that Bell didn’t invent the telephone. In 2002 the US Congress recognized the Italian‐American Antonio Meucci as the true inventor of the telephone. It is said that Meucci demonstrated the telephone in New York in 1860, sixteen years before Bell took out a patent. I was surprised to find that the transistor was not invented at Bell labs in 1947. Julius Lilienfeld filed a patent for the transistor in 1925. Claims to the development of the computer are as convoluted and controversial as claims to any other invention. Claims are often influenced by national chauvinism or economic pressures (e.g., in the UK many
  • 16. 12 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. believe that John Logie Baird invented television, even though very few people in the USA have heard of Baird). The invention of television is analogous to the invention of the computer. Baird demonstrated a means of displaying moving images at a distance. However, the quality of the image and the resolution were very poor, because his scanning process was entirely mechanical. A year or so later, Vladimir Zworkin demonstrated moving images using the iconoscope, an electronic device that became the basis of modern television. Baird’s invention was a dead end. So, does Baird or Zworkin deserve the credit? In the world of computing we have a similar problem. When did the computer emerge? If you regard a computer as a concept, Babbage deserves the credit because he suggested the storage of instructions in memory, a mill or processor that performed operations, a means of storing intermediate results, and a mechanism for conditional computation. Babbage never built his mechanical system. However, we should note that today we often view Babbage’s analytical engine through modern eyes as if it were conceived of as a computer (Babbage certainly did not see it that way). Konrad Zuse is now given credit as one of the inventors of the computer. He designed an electro‐mechanical computer and even had a binary ‐floating point unit in 1936. Because he was in Germany in WW2, the outside world learned little of his work until historians re‐evaluated his contribution. Zuse’s Z1 computer (1938) was the first program‐controlled computer and his Z3 (1941) was the world’s first fully functional programmable computer. Atanasoff and Berry claim to have invented the first digital computer in 1937. This was an electronic computer, but not a stored program computer. It was a calculating engine designed to solve linear equations and was not a computer in the current sense of the word (electronic calculator would have been a better term). Many regard the ENIAC as the first digital computer. This was also an electronic machine built at the University of Pennsylvania and completed in 1964. The ENIAC was not programmable and you created a program by rearranging the hardware. However, in 1973 ENIAC’s patent of 1963 was ruled invalid in favor of Atanasoff‐Berry. Basically, two giants of computing, Sperry Rand and Honeywell, sued each other because Honeywell alleged that Sperry Rand had an illegal monopoly as Sperry Rand held the ENIAC patent and Honeywell was championing Atanasoff. Atanasoff won the case. However, many historians feel that the judgment was flawed; not least because the ABC (Atanasoff‐ Berry Computer) computer was not programmable. It appears that the first true stored‐program computer (if we forget Zuse) was the so‐called Manchester Baby built at the University of Manchester in the UK in 1948. The EDSAC at Cambridge University, also in the UK, was completed in 1949 and is also frequently credited with being the first stored‐program computer. The computer (as we know it) resulted from gradually accelerating developments during the 1930s and 40s. Its development was inevitable given the need for high‐speed computation, the widespread notion of an electronic brain and the availability of technology. 29. In what applications have computers been most successful and in what applications have they been least successful or even useless? SOLUTION Computers are ubiquitous today in both control systems, and human systems. The microprocessor has brought low‐cost controllability to almost any system, from the washing machine to the automobile. Microprocessors are at the heart of digital cameras, mobile phones, MP3 players, iPads/tablets and GPS systems. Probably the first really successful popular use of the computer was word processing. It allowed countless millions to create and manipulate documents at home. With the growth of communications technology, the microprocessor gave us the web and distributed information – not to mention computer games and multimedia. All these are successes. One of the most surprising and unanticipated products of the microprocessor revolution was the spreadsheet. That revolutionized commerce.
  • 17. 13 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. Computers have probably been least successful in the field of artificial intelligence; that is, the mimicking of human behavior. Certainly, the humanoid robot (e.g., Asimov’s robots) that has a very long history in SF has not emerged. Nothing remotely like it has appeared. Operations that are apparently simple to humans, such as speech understanding, have not been fully achieved (there are, of course, some respectable speech recognition and understanding systems such as Apple’s Siri, but these are not yet perfect). Similarly, robots cannot generally perform operations that we regard as easily; for example, climbing stairs. We have created excellent special‐ purpose robots (e.g., in the automobile world) but nothing that comes close to a machine with human‐ like capabilities. 30. Why is the bus so important to a computer? SOLUTION The bus distributes data in a computer between functional units and between the computer and peripherals. The bus provides a computer with connectivity. The bus is to a computer what a highway is to a human. Without highways we would not be able to go from one place to another with great ease. Every journey would have to be strictly point‐to‐point. We share roads with others and have protocols (traffic signals, driving conventions, and laws) to ensure the smooth and orderly flow of traffic. The same is true of computers and buses. Processors, memory units, displays and countless peripherals have to be interconnected. Buses allow this to take place. There are fast buses between a computer (CPU) and its external memory (DRAM). There are slower buses between computers and peripherals (e.g., USB). Protocols exist so that information flows in an orderly fashion in a computer; for example, one device can request the bus, another device currently controlling the bus can give it up, and the would‐be bus controller take control in an orderly fashion. 31. It is common to hear the argument that the development of the CPU (microprocessor) in terms of its size, power, and speed has driven the computer revolution. What other aspects of the computer system have driven the computer revolution? SOLUTION The previous question pointed out the importance of the bus. Without USB/FireWire and WiFi/Bluetooth, interconnectivity would not be possible and mobile Internet applications would not exist. Similarly, the development of low‐cost peripherals such as printers, scanners, displays, mice and keyboards has made the personal computer an almost essential household item. Three other developments that have been vital to the growth of the computer are: a. The display. Portable computing would be impossible without low‐cost, high‐resolution, energy‐efficient color displays. b. The development of the disk drive provides large quantities of low‐cost data storage. Although performance has increased relatively little (time to read and write data), storage capacity has risen from about 5 MB to about 5 TB which represents a million‐fold increase in capacity. c. The development of flash‐memory. The hard disk is relatively bulky and has high power consumption. Flash memory now provides the non‐volatile storage required by MP3 players, digital cameras, and some notebook/netbook computers.
  • 18. 14 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. 32. Where do you think the bottlenecks (limitations or barriers) to the growth of the computer, in terms of its computational power and its abilities/application, lie? SOLUTION This is partially answered by other questions on, for example, Moore’s Law. Limitations depend to some extent on the nature of the user. This answer is largely aimed at the home or office computer user, rather than the scientific or government user, because scientific/government users can spend their way out of bottlenecks (e.g., by means of massive parallelism). In terms of data storage (capacity) we are doing well. The greatest storage requirement comes from high definition moving images. At the moment personal computers and tablets can hold a reasonable amount of data; for example, hundreds of hours of video. As the resolution of displays increases, there will be a continued need for more storage capacity (and some will wish to carry their entire video storage with them). Processing power is not usually an issue in desktop computing. However, those working on very high resolution still and moving images continue to require more power. The same is true for high‐resolution dynamic games. High‐performance games computing will probably be a driving force for years to come. AI applications will continue to soak up computing power as fast as it can be generated for the foreseeable future. For example, face recognition could be used to compile databases of all scenes and actions across many movies, a gigantic task. A practical limitation to computing is bandwidth, either for a fixed computer (e.g., via cable modems) or for mobile computers (via WiFi). It may well be that the lack of bandwidth will prove to be the single most limiting factor for the average user. Another limitation is power. This manifests itself by limiting computing speed (the need for more energy) and displays (the need to provide backlighting). Another power limitation is dissipation in terms of the need to remove heat from a computer. This is a particular problem in mobile computing. Finally, when the public electricity supply is not available (e.g., mobile computing), the principal limitation is battery life. In non‐home and office computing (commercial, military, government, medical) it is hard to see any limit to the demand for both storage capacity and computing power. Medical imaging alone has increasingly larger and larger storage requirements. Simulation also has endless requirements from the simulation of nuclear explosions, to the simulation of weather systems, to the simulation of molecular processes in physics. There is simply no foreseeable limit to computational requirements. 33. Is Moore’s law a law? SOLUTION No, not in the sense of a physical law. It is based on an observation that has been turned into a prophecy or conjecture. Because it has appeared to hold (or at least approximately so) for four decades, manufacturers have used Moore’s Law to begin designing the next generation of microprocessors before the current generation is in production; that is, the manufacturer can start to design a system with twice the number of transistors as the current generation without the technology needed to fabricate the device being currently available. I call it ‘Mr. Micawber’s Law’, because it relies on something turning up. In recent years, many have stated that Moore’s Law has indeed come to an end because we have reached (or are very close to) the physical limits to computer performance.
  • 19. 15 © 2014 Cengage Learning. All Rights Reserved. May not be scanned, copied, or duplicated, or posted to a publicly available website, in whole or in part. 34. Why do you think that Moore’s law exists? What drives it or makes it possible? SOLUTION There are several versions of Moore’s Law and corollaries of it. The basic law states that the number of transistors on a chip doubles every 18 months. This is similar to saying that the size of individual transistors will be reduced by a factor of 0.7 every 18 months. A popular corollary is that processing power double every 18 months. The fact that Moore’s Law has worked for so long indicates that there may be several factors driving it. Moore’s Law has been kept afloat by the astonishing progress in semiconductor manufacturing technologies that are able to fabricate smaller and smaller transistors, year by year. In turn, this requires progress in many different areas – semiconductor manufacture, encapsulation, the development of new materials such as the high‐ k metal gate, new transistor structures (different geometry) and, above all, progress in the photolithography used to fabricate chips. Moreover, as technologies improve they can themselves be used to create better chip‐manufacturing tools. Moore’s Law will eventually come to an end. That is not an observation from recent trends or a guess or a conjecture; it’s a certainty. Semiconductors are constructed from real materials that have an atomic structure. There is a limit to how small things can be made in the atomic world. By about 2020, transistors will be reaching the atomic limit. Once interconnections between transistors chips become just a few atoms wide, the conventional rules of electronics will no longer hold and quantum mechanical effects will begin to dominate. Some believe that Moore’s Law will continue beyond 2020 by exploiting three‐dimensional circuit design, or other forms of computing that take place at the atomic level using quantum mechanical effects or magnetism.
  • 20. Other documents randomly have different content
  • 24. The Project Gutenberg eBook of Nuovi studii sul genio vol. II (Origine e natura dei genii)
  • 25. This ebook is for the use of anyone anywhere in the United States and most other parts of the world at no cost and with almost no restrictions whatsoever. You may copy it, give it away or re-use it under the terms of the Project Gutenberg License included with this ebook or online at www.gutenberg.org. If you are not located in the United States, you will have to check the laws of the country where you are located before using this eBook. Title: Nuovi studii sul genio vol. II (Origine e natura dei genii) Author: Cesare Lombroso Release date: May 2, 2019 [eBook #59417] Language: Italian Credits: Produced by Claudio Paganelli, Carlo Traverso, Barbara Magni and the Online Distributed Proofreading Team at http://www.pgdp.net (This file was produced from images generously made available by Biblioteca Nazionale Braidense - Milano) *** START OF THE PROJECT GUTENBERG EBOOK NUOVI STUDII SUL GENIO VOL. II (ORIGINE E NATURA DEI GENII) ***
  • 27. NUOVI STUDII SUL GENIO II ORIGINE E NATURA DEI GENII
  • 28. NUOVI STUDII SUL GENIO VOLUME II ORIGINE E NATURA DEI GENII DI C. LOMBROSO (con 3 tavole e 6 figure nel testo). MILANO — PALERMO — NAPOLI REMO SANDRON Editore brevettato di S. M. il Re d'Italia — 1902.
  • 29. PROPRIETÀ LETTERARIA (mc) Torino — Tipografia G. Sacerdote.
  • 31. ORIGINE E NATURA DEI GENII "Quelques difficultés qu'il y ait à découvrir des vérités nonvelles en étudiant la nature, il s'en trouve des plus grandes encore à les faire reconnaître". Lamarck. CAPITOLO I. Sull'unità del genio. Fra i cento e più critici che tartassarono la mia teoria sul Genio, uno solo mi ha segnalata una vera, capitale lacuna: il Sergi: quando mi obbietta, nel Monist, che io ho sì illustrata e, forse, rivelata, la natura del genio; ma non ho spiegato come sorgano le varietà così differenti dei genî. Non già — egli intendeva — che i genî differiscano essenzialmente fra loro per qualità. L'eccellere nella pittura piuttosto che nella matematica o nella strategia, non cambia punto la natura dei genî; come il variare nel sistema di cristallizzazione romboedrica o esaedrica non cambia la natura chimica del carbonato calcare, essendo in tutti comune l'esplosione, l'intermittenza, la creazione del novo e, sopratutto, l'estro.
  • 32. Ciò, per quanto le parvenze vi fossero contrarie, ci venne chiaramente provato anche dai più insigni pensatori. Così il Mach[1] notava: "Come già Giovanni Müller e Liebig affermarono arditamente, le operazioni intellettuali degli scienziati non differenziano sostanzialmente da quelle degli artisti. Leonardo da Vinci può esser posto tra gli uni e gli altri. Se l'artista, con pochi motivi, compone la sua opera, lo scienziato scopre i motivi che penetrano nella realtà. Se uno scienziato, come Lagrange, è in qualche modo un artista quando espone i risultati ottenuti, a sua volta un poeta, come Shakespeare, è uno scienziato nella visione intellettuale che presiede all'opera sua. Newton, interrogato sul suo metodo di lavorare, rispose che meditava a lungo sullo stesso argomento; e così risposero D'Allembert e Helmoltz. Scienziati e artisti raccomandano il lavoro tenace e paziente. Quando la mente ha più volte contemplato lo stesso soggetto, aumentano le probabilità di occasioni favorevoli alla creazione; tutto quanto può plasmarsi alla idea dominante acquista rilievo, mentre quanto le è estraneo fugge nell'ombra. Così spicca di luce improvvisa quell'immagine che esattamente risponde all'idea; e mentre è effetto di lenta selezione, sembra il risultato di un atto creativo; così si comprende come Mozart, Newton, Wagner affermino che le idee, le armonie e le melodie affluissero loro spontanee ed essi non facessero che ritenerne il meglio". A sua volta Carlyle disse: "Non v'ha differenza sostanziale tra artista e scienziato. Molti poeti furono insieme storici, filosofi e statisti; Boccaccio e Dante furono diplomatici", e noi aggiungeremo che Leonardo da Vinci, Cardano, come negli ultimi tempi D'Azeglio, Humboldt, Goëthe, abbracciarono i campi più svariati dello scibile umano. È un fatto notorio che molti grandi matematici furono o nacquero da artisti; così vedo nella Biografia di Beltrami, redatta con tanto amore dal Cremona (Roma, 1900), che il Beltrami ebbe avo un abilissimo musico, e padre e zio pittori di merito, e madre nota per belle composizioni musicali; egli stesso era pianista abilissimo, come lo
  • 33. furono Sylvester, Codazzi e come lo sono Porro, Sciacci, D'Ovidio; lo stesso Beltrami[2] dettò una specie di teoria sui rapporti tra la musica e la matematica, pretendendo che il processo mentale applicato alla musica fosse identico, o poco meno, a quello delle matematiche; quasi che nell'uno e nell'altro fossero posti in azione gli stessi organi. Codazzi, grande matematico e insieme pazzo morale ed alcoolista, era un vero melomane: stava intere notti al piano; più volte mi diceva che era sulla via di trovare un metodo per comporre musica col mezzo della matematica; in fatto, però, soffriva e morì di delirium tremens. Meyerbeer, a sua volta, era un buon matematico. E non citiamo Haller, Swedemborg, Cardano (Vedi sopra, vol. I), che percorsero, scoprendovi del nuovo, i campi più disparati dalla matematica e dalla chimica alla teologia e letteratura; perchè ci si potrebbe obbiettare: che era facile allora abbracciare le regioni più lontane dello scibile e anche trovarvi del nuovo, essendone la materia ancora così circoscritta. Se non che: se ai nostri tempi questo pare inverisimile, gli è perchè si riflette anche nella concezione del genio quell'eccessiva divisione del lavoro che si è infiltrata nella vita; per cui non riconosciamo abbastanza i meriti dei genî multiformi e non ne accettiamo che alcune delle doti unilaterali più appariscenti. Così nessuno ai suoi tempi, anzi nemmeno ora, ha riconosciuto abbastanza il merito di Goëthe nella filosofia naturale. Una volta ammesso in Goëthe il grande poeta, ripugnamo a crederlo grande naturalista e grande ottico. Così nessuno di noi riconosce o ricorda le profonde attitudini politiche e scientifiche di Dante, nè le letterarie e tattico-militari di Macchiavelli, nè le musicali di Rousseau; e nessuno sa vedere in Leonardo da Vinci il geologo, l'idrologo, il balistico, l'anatomico, o in Cardano il letterato, il filosofo e il teologo[3]. Pure in nessun di questi casi la grandezza del genio nei rami più disparati era giustificabile dalle condizioni dei tempi: nè in questi casi vale più la scusa della divisione del lavoro, nè l'obbiezione che lo scibile si riduceva a così poco da potersi facilmente tutto
  • 34. abbracciare: perchè quei genî non solo avevano percorsa tutta la scienza contemporanea, ma prevennero quella dei nostri tempi, e alcuni, anzi, furonci coevi, come Goëthe, Humboldt, Hæckel, Leopardi, D'Azeglio e Arago.
  • 35. CAPITOLO II. Cause note della varietà dei genî. Se non che, ripeto, notava giustamente il Sergi che la comune natura dei genî non ispiega affatto la ragione della loro varietà, come la composizione identica dei cristalli di calce non spiega perchè ciascuno cristallizzi in un sistema speciale: acqua e ghiaccio hanno pure la stessa formola molecolare; ma perchè l'una abbia aspetto d'acqua e l'altra di ghiaccio, ci vuole una condizione speciale, che è nota essere la termica. Ora, come può spiegarsi la varietà così diversa dei genî?; perchè l'un genio si specializza nel drizzone artistico e più propriamente della pittura, e l'altro diventa un genio storico, archeologico, ecc.? Qui è veramente il nuovo problema. Eredità. — Nè basta a spiegarlo l'eredità. Recentemente Möbius faceva notare la strana frequenza ed intensità dell'eredità nei matematici, riscontrata tra padre e figlio in 215 e in 35 con più figli: 17 volte tra padre, figlio e zio; 5 col nonno e con lo zio; 20 tra zio e nipote; 131 tra affini; in più di due fratelli 23 volte; 3 volte tra sorelle e fratelli[4]. Ciò pare anche più diffusamente abbia luogo per la musica, forse perchè qui l'ambiente può agire più precocemente, poichè noi sappiamo, dagli studi del nostro Garbini sui bambini, che essi cominciano a 13 mesi ad avvertire le note cromatiche e nel 5º anno i suoni.
  • 36. Perosi ebbe non solo il padre e il nonno musicisti, ma anche l'avolo e il bisavolo, e crebbe in mezzo a un'atmosfera di musica e di religione come Mozart. Ed è nota la discendenza dei Bach, dei Mozart, dei Gabrielli, dei Palestrina e dei Bellini. Anche Wagner ebbe fin dalla seconda generazione maestri di musica in famiglia: un nonno coltissimo, un padre giurista, è vero, ma appassionato dell'arte drammatica e del teatro; e il padrigno, successo alla morte del padre, era nientemeno che il comico Ludwig Geyer. Anche lo zio era appassionato dell'arte, e come commediografo sviluppava in alcune sue monografie le idee che furon tanto care poi al nipote. Finalmente un fratello e tre sorelle del Geyer si erano date al teatro. Si capisce quindi che, benchè egli si fosse dato alla pittura fin dalla giovinezza, divenisse poi il più grande poeta e musicista del suo tempo. Raffaello era di famiglia di scultori e pittori: il padre, poeta e pittore, gli insegnò la sua arte. Nelle scienze naturali eccelsero i Darwin, gli Hooke, i Jussieux, i Geoffroy de Sant-Hilaire, ecc. Eredità dissimilare. — Ma a chi ben studi questi casi, specie pei genî scientifici, essi sono più l'eccezione che la regola. Se per molti altri genî l'esser nati, come Darwin, come Musset, Raffaello, Geoffroy, Bach, Saint-Hilaire, Bernouilli in mezzo a parenti pittori, astronomi o naturalisti, fu circostanza a loro favorevole, perchè alle predisposizioni, alle trasmissioni ereditarie che influirono sulle loro speciali tendenze si aggiunse l'azione dell'ambiente, sicchè trovarono nelle tendenze ataviche, fin dai primi anni, la ragione d'ispirarsi alla mèta definitiva, — regola più comune[5] è invece la mancanza di eredi nel genio, più di frequente presentandosi quella che io vorrei chiamare "eredità dissimilare" o "contraria" e che noi vediamo così spesso nel mondo, per cui i figli degli avari sogliono essere prodighi, i figli dei coraggiosi vilissimi, ed inerti i figli degli
  • 37. uomini d'azione. Così il genio disordinato di Poë gli venne, forse per dissimilarità, dal puritanismo del generale Poë, che era di tanto austero di quanto il nipote era scapigliato. Hoffmann, il disordinatissimo Hoffmann, ebbe, come l'ancora più scapigliato Verlaine (V. vol. I), zii e madre compassati como macchine; e così D'Azeglio, Heine ed Alfieri nacquero da parenti tutt'altro che amici dell'arte; Colombo nacque da volgari mercanti e tessitori. Io conosco il figlio di un grande oculista italiano che aveva tutte le ragioni per seguirne la carriera, eppure divenne invece grande otoiatra, per una ripugnanza insormontabile alla bellissima scienza paterna. Pare che in questi casi avvenga una specie di saturazione, per cui ai figli non rimane che l'incapacità o la ripugnanza per gli studi paterni. Così molti poeti e artisti nacquero da negozianti, da notai o avvocati, avversari accaniti dell'arte e di ogni idealità, e molti santi da gente viziosa. Ambiente. — E così dicasi di quelle circostanze economiche o sociali che circondano la vita del genio, specialmente ai suoi albori, e che si chiama l'"ambiente", in cui i pensatori mediocri tanto si cristallizzano. Così si capisce come un paese tutto ravvolto in guerre, come il Piemonte, non abbia dato nei primi periodi nemmeno un artista, nè un poeta, poichè qualunque genio, che non eccellesse nell'armi, vi rimaneva sconosciuto e sprezzato. E così si capisce che in un paese come la Spagna, in cui il libero pensiero era soffocato col rogo, mancassero completamente i filosofi ed i naturalisti e non sorgessero che teologhi ed artisti. Si capisce, eziandio, perchè in Italia, dove i delitti sono così abbondanti, sorgano tanto numerosi gli avvocati e criminalisti geniali, quali un Beccaria, un Romagnosi, un Ferri, un Garofalo, un Pagano, un Ellero, un Carmignani, un Carrara.
  • 38. Così si spiega come negli Ebrei, tanto dediti al commercio, fossero e siano tuttora numerosi i grandi economisti. Basti citare Marx, Lassalle, Ricardo, Loria, Luzzatti. Ricardo non fu certo inspirato dal padre, nè può dirsi che abbia avuto eredità geniale; ma è certo che, avendo preso parte ai commerci e alle speculazioni del padre, banchiere olandese, partì dalle pratiche commerciali alle applicazioni economiche, e questo ci spiega come correggesse gli errori degli economisti teorici contemporanei e come tutte le sue opere sentissero le origini e le ispirazioni pratiche, sfuggendo in seguito a grandi avvenimenti commerciali, come la crisi monetaria del 1800.
  • 39. CAPITOLO III. Vantaggi dell'agiatezza e della miseria. Così dicasi della ricchezza. Spesso il benessere favorisce il genio. Pascal riteneva che una nascita distinta conferisca a venti anni, nella stima e nel rispetto degli altri, una posizione che i diseredati mal riescono a raggiungere a quaranta. Che cosa sarebbe avvenuto di Meyerbeer senza la ricchezza, di Meyerbeer che aveva una produzione così laboriosa ed il cui genio si esplicò solo viaggiando e vivendo in Italia? Ma tutto ciò va inteso con molta circospezione, perchè quanti genî, invece, non furono guastati dalla ricchezza e dalla potenza! Jacoby ha dimostrato che il potere illimitato precipita la degenerazione, rende facilmente megalomane e demente chi lo impugna. E noi vediamo la deputazione averci rapiti uomini geniali, diventati poi, al più, mediocri ministri. Chi sa dirci quanti fra quelli che si pompeggiano nelle nostre vie, fieri di un bel sauro e di una occhiata di qualche clorotica duchessa, non sarebbero diventati grandi uomini? Un esempio ce ne offre l'aristocrazia piemontese. Per molto tempo avendo tenuto a gloria il brillare nella milizia e nella politica, essa ci diede più uomini celebri che non il patriziato di Toscana insieme e di Napoli; ed ora non emerge che nelle sacrestie e nelle regie anticamere.
  • 40. Di più: bisogna ricordare che fu spesso la miseria, l'infelicità, che, servendo da stimolo, da pungolo al genio, ne fecero spicciare la vocazione; il che spiega quanto dimostrò la mia Paola: essere l'infelicità uno dei caratteri più frequenti della storia del genio[6]. Così: senza la miseria non avremmo avuti i romanzi di George Sand e della Becher-Stowe, nè le commedie di Goldoni. Non rare volte, è vero, parve l'occasione aver dato luogo allo sviluppo del genio. Così, per un rimprovero che Muzio Scevola fece a Servio Sulpizio di ignorare le leggi del proprio paese, somma vergogna per un oratore e per un patrizio, quest'ultimo divenne un grande giureconsulto. Spesso i tagliatori di pietre, da lavoranti nelle cave intorno a Firenze, sin dai più felici tempi della Repubblica riuscivano scultori di vive figure, quali Mino da Fiesole, Desiderio da Settignano e il Cronaca. E Giovanni Brown, scalpellino, datosi a studiare i fossili delle pietre che picchiava, riuscì uno de' più grandi geologi. Andrea Del Castagno, stando a guardia degli armenti nel Mugello, rifugiatosi un giorno, dal diluviar della pioggia, entro una cappelletta ove un imbianchino stava scombiccherando una Madonna, si sentì attratto ad imitarlo; cominciò col carbone a disegnare figure dappertutto e si acquistò fama tra i paesani; messo poi a studiare da Bernardino de' Medici, riuscì pittore insigne; e Vespasiano da Bisticci, libraio o cartolaio a Firenze, dovendo pel suo negozio maneggiare molti libri e aver da fare con uomini di lettere, divenne letterato egli stesso. Ma la storia dei genî è più ricca di circostanze contrarie che di favorevoli, come in Boileau, Lesage, Cartesio, Racine, La Fontaine, Goldoni, costretti a soffocare la musa sotto la toga pesante di Temi o, peggio, sotto la stola del prete. Metastasio fu sarto, Socrate scalpellino. I parenti di Poisson volevano farne un chirurgo, quelli di Bochax un prete, quelli di Lalande e di Lacordaire degli avvocati. Vauclin era un contadino, Herschell un suonatore ambulante. Per Cellini tutto era
  • 41. disposto perchè divenisse suonatore di flauto e non scultore. E Michelangelo, secondo i parenti, doveva divenire un sapiente, un classico, mai, come diceva il padre, uno scarabocchiatore d'immagini; e quando un grande scultore vide le inclinazioni e i primi tentativi del giovane, ed esortò il padre a metterlo nel suo studio, questi per acconsentirvi si fece pagare da lui una somma che aumentava di anno in anno. Berlioz (Memorie) era figlio d'un medico geniale che aveva fatti lavori molto importanti sull'agopuntura e, sperando di avere in lui un successore, l'aveva educato a questo scopo e l'aveva indotto a sorpassare le prime ripugnanze della sala anatomica, dove gli aveva aperte le più care amicizie coi cultori di questa scienza (Gall, Amussat, ecc.); a diciasette anni, non appena sentì le Danaidi di Salieri, abbandonò tutto, per divenire maestro compositore. Galileo ebbe una lunga serie di antenati filosofi, magistrati, pensatori, che rimontano fino al 1538[7]. Anche il padre Vincenzo, oltre l'attitudine alla musica, in cui era originalissimo, ebbe attitudini alla geometria e alla mercatura, ed il figlio Benedetto, fratello di Galileo, era pure rinomatissimo nella musica, la quale, con occhio naturalistico, era stata insegnata ai due figliuoli; ma evidentemente questa eredità non ebbe una influenza diretta, e poca, anzi nulla, vi ebbe l'educazione, che in quei tempi portava alla retorica ed al classicismo, così che — attesta il Nelli — "in quei tempi in Toscana solo i padri Scolopi tenevano scuola di geometria e di matematica, non apprezzandovisi allora che gii Umanisti; e nemmeno gli giovarono gli studi medici, allora tutto affatto teorici e senza alcun rapporto con l'esperimentazione". Budda, Cristo e Comte ebbero un ambiente sì sfavorevole, che le loro dottrine si propagarono solo fuori del loro paese d'origine. È vecchia l'osservazione: A cui natura non lo volle dire, Nol dirian mille Ateni e mille Rome.
  • 42. Le circostanze, dunque, e lo stato di civiltà al più fanno accettare e rivelano i genî e le loro scoperte, che in altre condizioni sarebbero passate inosservate o derise, e, peggio, perseguitate. Quindi si comprende come le grandi scoperte siano assai di rado completamente nuove all'epoca in cui sono accettate. "La vapeur — Fournier — était un jouet d'enfant au temps de Héron d'Alexandrie et Anthemius de Tralles. Il faut que l'esprit humain et les besoins de notre race travaillent des millions de fois par l'expérience avant de tirer toutes les conséquences d'un fait". Nel 1765 Spedding offerse il gas portatile già bell'e pronto al municipio di Witchaven, che lo rifiutò; vennero poi Chaussier, Minkelers, Lebon e Windsor, che non ebbero altra abilità se non di appropriarsi la scoperta e fruirne. Il carbon fossile era stato scoperto nel secolo XV, la nave a ruota nel 1472, quella ad elice prima del 1790; quando nel 1707 Papin fece navigare una nave a vapore, non ne ritrasse che scherni e lo trattarono da ciarlatano. Il Sauvage, che finalmente potè applicare il vapore alla navigazione, lo vide in opera... dal carcere, dov'era imprigionato per debiti. La dagherotipia venne intravveduta nel secolo decimosesto in Russia, fra noi nel 1566 dal Fabricio e di nuovo scoperta dal Thiphaigne de la Roche. Il galvanismo fu prima scoperto dal Cotugno e poi dal Du Verney. La teoria stessa della selezione non appartiene a Darwin esclusivamente. Questa idea, come tutte le altre, ha nel passato profonde radici. "Le specie attuali non sussistono che in grazia della loro astuzia, forza e velocità; le altre sono perite" — diceva già Lucrezio —; e Plutarco, interrogato perchè i cavalli, che furono inseguiti dai lupi, fossero più rapidi degli altri, adduceva per ragione che essi soli erano sopravvissuti, essendo stati gli altri, più pigri, raggiunti e divorati. La legge d'attrazione di Newton era già intuita nelle opere del secolo decimosesto, specialmente di Kopernico e Keplero, e fu quasi tracciata da Hooke.
  • 43. E così dicasi pel magnetismo, per la chimica, per la stessa antropologia criminale, come dimostrava Antonini[8]. Dunque non è la civiltà che sia causa dei genî e delle scoperte; ma essa ne determina l'evoluzione, o, meglio, l'accettazione. Quindi è probabile che genî siano comparsi in tutte le epoche, in tutti i paesi; ma come, grazie alla lotta per l'esistenza, una quantità di esseri nasce solo per soccombere, invendicata preda dei più forti, così moltissimi di quei genî, quando non trovarono l'epoca favorevole, restarono misconosciuti, o, peggio anzi, puniti. E se vi hanno civiltà che aiutano, ve ne hanno anche di quelle che danneggiano la produzione dei genî; per esempio in Italia, dove la civiltà è più antica e dove se ne rinnovarono parecchie, una più forte dell'altra; ivi, se la tempra del popolo è più aperta, in genere tutto il mondo colto è più restìo ad ogni novità ed innamorato e quasi incatenato nell'adorazione del vecchio, quindi nemico dei novatori, e li abbatte o reprime col disprezzo o col silenzio e coll'abbandono. Invece: dove la civiltà è più recente, come in Russia e in America, le idee nuove si accolgono con un vero furore. Quando il ripetersi della stessa osservazione ha reso meno ostica l'accettazione dei nuovi veri, o quando le circostanze rendono utili e, meglio, necessari un dato uomo od una data scoperta, esse si accettano, finendo, poi, col portarle all'altare. Il pubblico, che vede la coincidenza tra una data civiltà ed il manifestarsi del genio, crede che l'una dipenda dall'altra, confonde la leggera influenza nel determinare lo sgusciamento del pulcino con la fecondazione che rimonta invece alla razza, alla meteora, alla nutrizione, ecc. E non è a dire che ciò non accada nei nostri tempi; l'ipnotismo è lì per dimostrare quante volte, anche quasi sotto i nostri occhi, si rinnovò e fu presa per nuova una sempre uguale scoperta. Ogni età è egualmente immatura per le scoperte che non avevano od avevano pochi precedenti; e quando è immatura, è nell'incapacità di accorgersi della propria inettitudine ad adottarla. Il ripetersi di un'analoga scoperta, preparando il cervello a subirne l'impressione,
  • 44. vi trova man mano sempre meno riluttanti gli animi. Per sedici o venti anni in Italia si è creduto pazzo dalle migliori autorità chi scopriva la pellagrozeina; ancora adesso il mondo accademico ride dell'antropologia criminale, ride dell'ipnotismo, ride dell'omeopatia. Chissà dunque che anch'io ed i miei amici, che ora ridiamo dell'incarnazione spiritica ed astrale, non commettiamo un altro di quei crimini contro il vero, poichè noi siamo — come gli ipnotizzati, grazie al misoneismo che in tutti noi cova — nell'impossibilità d'accorgerci quando siamo nell'errore; e proprio come molti alienati, essendo noi al buio del vero, ridiamo di quelli che non lo sono. Finchè l'età sua non sia giunta, finchè l'umanità non vi sia matura, ogni scoperta, ogni idea nuova è, dunque, come non fosse mai nata.
  • 45. CAPITOLO IV. Vantaggi della libertà. Ed è perciò che solo nei paesi più liberi vegeta rigogliosa la genialità. Io l'ho dimostrato graficamente nell'Uomo di genio col parallelo tra i dipartimenti più liberali nelle elezioni di Francia e i dipartimenti più ricchi di genî, come il Varo, la Senna, il Rodano, la Saona e Marna, la Meurthe, la Vandea, il Morbihan; mentre i Bassi ed Alti Pirenei, il Gers, la Dordogna, il Lot — reazionari — danno pochissimi genî. È così grande e completa questa analogia, che spesso maschera e confonde quella della razza, della densità, della ricchezza, ecc. Ginevra, che nel 1500 era detta la città dei malcontenti, certo era la più geniale della Svizzera, e così dicasi di Atene, la quale, nel più fiorente periodo della sua libertà o, meglio, anarchia, giunse a contare 56 grandi poeti, 21 oratori, 12 storici e letterati, 14 tra filosofi e scienziati e 2 sommi legislatori, come Dracone e Solone, mentre Sparta oligarca ebbe poche o punto rivoluzioni, ma pochissimi ingegni famosi (non più di sei, secondo lo Schoell); — la lotta per la libertà in Olanda, in un'epoca in cui il senso della libertà era quasi sconosciuto in Europa, ci spiega come questo popolo abbia dato, appunto allora, un così grande numero di genî politici e artistici. Fu sopratutto grazie al lungo periodo di libertà — 700 e più anni —, periodo superiore a quello goduto da tutti i popoli d'Europa, che Venezia riuscì a superare tutti gli altri in grandezza politica, come ho dimostrato nel Perchè fu grande Venezia?[9]; e così Firenze e Roma diedero i loro più grandi genî nell'epoca della loro maggiore libertà,
  • 46. anzi dell'anarchia. E qui ricordo di nuovo come debba sfatarsi l'idea che all'aristocrazia chiusa di Venezia negli ultimi secoli fa merito della sua grandezza; così come quell'altra, pure erronea, che attribuisce la ricchezza in Roma ed Atene ad Augusto o a Pericle. Tale ricchezza, formatasi durante i periodi di libertà anche eccessiva, non avendo avuto tempo di scomparire nelle prime epoche della tirannide, si volle attribuire a questa invece che a quella; ma la tirannide non fece che accogliere gli ultimi frutti della libertà per vantarsene e per disperderli. Tacito lo nota pei genî romani: "Postquam bellatum apud Actium atque omnem potentiam ad unum conferri paci interfuit magna illa ingenia cessere"; come altrettanto affermava Leonardo Bruni per Firenze nella Laudatio urbis Florentinæ (Livorno, 1789, pag. 16) contro la leggenda che ne attribuisce la grandezza al mecenatismo mediceo. E ciò ben si comprende perchè il governo di molti, anche se troppo libero, mette in opera tutti gli ingegni e ne accoglie le nuove idee; mentre la tirannide, nemica, fin dal tempo dei Tarquinî, di ogni elevatezza individuale, tenta sopprimerla e soffocarne ad ogni modo i conati; e quindi è più facile che giovi allo sviluppo dell'arte e della politica una libertà anche sfrenata che non un governo dispotico, sia pure inspirato da un uomo di genio. Chi può paragonare la produzione letteraria ed artistica sorta a Parigi sotto Napoleone con quella della grande epoca fiorentina e ateniese? Ed ecco spiegato anche, così in gran parte, quel fenomeno, che sarà rimasto difficile a comprendersi, della grandezza fiorentina in confronto a quella di Napoli e di Palermo, dove poche opere grandiose d'arte lasciarono traccia di sè e dove la somma dei genî non raggiunse il livello toscano; eppure non mancò nè all'una, ne all'altra il clima favorevole di mite temperatura, di collina e mare che io ho dimostrato essere il più opportuno pel genio; nè vi mancò l'innesto etnico, nè la razza intelligente, etrusca negli uni, grecolatina negli altri, con mistione di Normanni, ecc.
  • 47. La genialità è un carattere dell'evoluzione e della libertà, e ne è un indizio; e non tanto perchè essa ne sia originata, ma perchè solo l'evoluzione e la libertà servono a metterla in onore e diffonderla. Carlyle, negli Eroi, scrisse che il miglior indice della coltura d'un'epoca è il modo con cui essa accolse i suoi genî. È perciò assai probabile che di genî ne siano sorti o ne sorgano in tutti i tempi e in tutti i paesi; ma non sopravvivono, perchè non sono compresi, che dove il fermento di libertà renda loro meno aspra la strada, domando l'odio del nuovo che tende sempre a soffocarli nel nascere; e così nel Nord d'America Whiteman, Longfellow, Edison sono dappertutto acclamati, e in Italia, dove la libertà è inceppata da ogni parte, i veri genî trovano, sì, copia di onori e monumenti, ma... dopo la morte. Per comprendere meglio quest'influenza, basti l'esempio delle sventure di Galilei per una semplice teoria astronomica, che non intralciava, nè offendeva interessi mondani. Nei paesi poco liberi l'odio del nuovo trova naturali alleati nei reggitori, e quindi è irremissibilmente soffocato e punito. Io ne vedo, fino ad un certo punto, una prova nella sorte della nuova Scuola penale da me iniziata e che trova, per esempio, in America ed in Svizzera, Olanda e in Svezia un pubblico favorevole che la propugna, mentre è irremissibilmente respinta da ogni cattedra, come da ogni ufficio, come da ogni progetto di legge nei paesi come l'Italia, in cui il popolo è ancora schiavo dei vecchi e vieti pregiudizi e governato semi-asiaticamente. E quest'azione negativa è così grande, che fa credere ad un'azione diretta dell'ambiente favorevole al genio. Si vede, dunque, che le condizioni ereditarie e d'ambiente, su cui più si faceva assegnamento per l'origine delle varietà geniali, o mancano, o sono contraddittorie.
  • 48. Memoria visiva, tipo immaginativo, ecc. — Basterà egli a determinarle la particolare tempra dell'organismo geniale, secondo che vi predomini, cioè, la memoria visiva o l'acustica, secondo che sia più viva la fantasia, più rapida che precisa la percezione e viceversa; fatti questi che noi abbiamo potuto fissare nel genio[10], con lo studio della grafologia, nella scrittura così nitida e calma, quasi a stampatello, nei chimici e nei matematici, così aggrovigliata e precipitosa in quelli in cui predomina la fantasia. E qui giova l'osservazione sperimentale di Binet e Lecler[11] che in ogni gruppo d'uomini vi ha il tipo immaginativo — poeta — e quella di osservazione minuta, arida, ma precisa; il che dividerebbe nettamente la scienza dall'arte. Sì, queste condizioni hanno un'enorme influenza sulla direzione generale del genio, ma più ancora sul colorito, sull'aspetto delle sue opere. Così lo smagliante stile di Victor Hugo si deve certo al predominio eccessivo dei centri visivi, all'esser egli un visivo per eccellenza, lui che si ispira nei primi versi de Les orientales ai tramonti di Parigi; e così dicasi degli abbaglianti, luminosi quadri del Segantini, che, a quattro anni, cadendo in un fiume, non resta colpito che dal bagliore dell'acqua e dalla ruota del mulino; come il predominio dei centri olfattivi entra nelle opere di Zola per molta parte, come il predominio dei centri acustici che fan discernere ad Helmoltz i toni musicali nella cascata del Niagara, dev'essere entrato per molto nella scelta e nella condotta delle sue ricerche tanto originali d'acustica, elevata da lui a nuova scienza. Ma oltre che vi sono genî, come il Leopardi, in cui l'ottusità e la depressione nei centri visivi, olfattivi, ecc., non solo non impedirono di dare, ma anzi, dando insueto predominio ai centri chenestetici, impressero alle opere loro quel singolare colorito che ci strappa una così nuova ed universale commozione come quando ammiriamo i quadri dei notturni Norvegesi, bisogna pur aggiugnere che il campo della genialità è troppo vasto e insieme troppo suddiviso, perchè vi predomini solamente quell'influenza. Date pure una parte d'influenza, e grande, all'essere uno visivo piuttostochè auditivo; ma se un visivo può divenire scultore, come poeta, o istologo, o statista,
  • 49. o magari calcolatore-prodigio, che vede allineate nella mente le cifre da calcolare, questo predominio non basta da solo a determinare la scelta della varietà geniale. Di più: dato un genio matematico puro (e spesso, come vedemmo sopra, il grande matematico è anche un forte musico), egli ha sempre da scegliere fra la fisica, la chimica, la zoologia, ecc., mentre il genio immaginativo può scegliere fra poesia, musica, pittura, ecc. Per ciò, pur tenendo conto di queste varie attitudini come di una causa predisponente grandissima della varietà geniale, dobbiamo studiare di trovarne ancora quella che ne è la causa più specifica, più diretta.
  • 50. CAPITOLO V. Influenza della pubertà. Ora, chi analizzi le biografie dei grandi uomini, di cui si conosce la prima giovinezza, trova la causa predominante della loro speciale genialità nell'immensa influenza che viene dal combinarsi di una data fortissima impressione sensoria, di una data forte emozione, consona, ben inteso, alle tendenze organiche e al grande sviluppo mentale dell'individuo geniale col momento vicino alla pubertà, in cui il genio, essendo in istato nascente e per ciò più soggetto agli stati emotivi, ha la maggiore tendenza a fissarsi per sempre in una più che in altra direzione, E qui le prove sovrabbondano. Così, per esempio, di Segantini bimbo, seppellito in un riformatorio, i superiori, nella loro sapienza burocratica, volevano fare un calzolaio; fortunatamente, egli fugge dai suoi singolari patroni nella nativa montagna, dove, pastore, ritrae inconscio, e senza darvi alcuna importanza, montoni e casolari; ma quando a 12 anni vede morire una bambina e sente la madre straziarsi per non poterne conservare l'immagine, egli si sente ispirato a farne il ritratto e da quel giorno diventa il grande Segantini. Il combinarsi di una forte impressione morale e fisica nell'esordire della pubertà in un ingegno visuale così poderoso ha fatto di lui un pittore geniale. Così Proudhon era un povero figlio di un boscaiolo; il curato gli aveva insegnato un po' di latino e i Benedettini di Cluny qualche po' di disegno: a 14 anni, mentre egli tentava di copiare da sè alcuni brutti quadri del convento, fabbricandosi i colori col succo delle piante e i
  • 51. pennelli coi crini di un mulo, fu avvertito da un frate che con quei suoi strani mezzi a nulla sarebbe riuscito, perchè quei quadri erano ad olio: bastò ciò perchè egli ritrovasse da sè la pittura ad olio, come Pascal trovò la geometria. Stuart Mill è a 12 anni così colpito dallo studio della Storia dell'India del padre suo, che da quel giorno data la sua genialità. Arago, figlio di un avvocato, precoce nel leggere la musica, si occupava di autori classici; la passione per le matematiche gli sorse tutta a un tratto nel sentire da un ufficiale del genio com'egli fosse giunto rapidamente al suo grado, uscendo dalla Scuola politecnica, dove si studiava matematica. Abbandona allora Corneille per darsi alle matematiche, che studia da sè, e a 16 anni era pronto per l'esame al Politecnico. Tommaso Joung, precoce sì che a due anni leggeva e a cinque aveva imparato un gran numero di poemi inglesi e latini che recitava a mente, vede a otto anni presso un agrimensore gli strumenti per misurare le distanze e l'elevazione dei corpi lontani: tosto si mette a studiare un trattato di matematica per capire la struttura di siffatti arnesi: e finisce a costrursi da sè un microscopio per studiare la meccanica e imparare il calcolo differenziale[12]. Galileo, fino al 17º anno, non aveva fatta alcuna rilevante scoperta: si sentiva, sì, inclinato alle scienze esatte, e per ciò aborriva le inesattezze dei metafisici e dei medici di quell'epoca; fu solo quando, al 18º anno, il terzo dei suoi studi in medicina, egli vide nella chiesa maggiore di Pisa una lampada, mossa dal vento, percorrere lo spazio in tempo uguale, che pensò subito ad uno stromento — il pendolo — per studiare l'isocronismo del tempo e stabilire con grafiche e precise leggi la maggiore o minore velocità del polso; e da questo passò agli altri studi fisici. Lioy, nel Primo passo di Martini, confessa che aveva 8 anni quando, essendogli nato un fratellino, fu chiuso in una biblioteca, perchè non disturbasse la madre, e gli fu dato a leggere un volume di Buffon. Fu questo la scintilla del suo ingegno: "Mi par di vedere ancora — egli
  • 52. scriveva — quegli uccelli; io li sognava tutta la notte; il mio grado di aiutante naturalista era raggiunto". Di Poisson[13] i parenti volevano fare un chirurgo-flebotomo e lo affidarono ad uno zio, che pretendeva educarvelo, facendogli pungere con la lancetta le venature delle foglie dei cavoli; ma egli sbagliava sempre: quando un giorno, fra gli 8 o 9 anni, trova un programma della Scuola politecnica e sente che può sciogliere e scioglie immediatamente alcuni di quei quesiti; la sua carriera era trovata. Lafontaine era figlio di un burocratico e scribacchiava versi di poca importanza, quando gli cadde sotto mano la bella ode di Malherbe sulla morte di Enrico IV. Allora comprese di essere poeta e lo fu. Gianni (Biografia universale) divenne poeta quando lesse l'Ariosto; egli allora, poco più in là dell'età della pubertà, improvvisò versi prima ancora di aver imparata l'arte di comporli. Lagrange non aveva grandi attitudini per gli studi: il suo genio si rivelò al secondo anno di liceo quando lesse uno scritto di Halle; gettò giù allora il suo Primo saggio sul metodo delle variazioni. Rusckin, dall'aver veduto a 15 anni, una sera d'estate del 1833, da un elevato giardino di Sciaffusa, come confessa nel suo volume del Præterita, gl'illimitati, alti, affilati contorni delle Alpi disegnarsi sul cielo rosso, ebbe l'ispirazione di quella nuova estetica che sviluppava più tardi. In questi casi non è che la sensazione abbia provocato il genio, ma fu l'occasione, perchè si rivelasse e s'incanalasse in un dato indirizzo; essa ha determinato, insomma, un individuo, predispostovi organicamente, a rivolgersi, a salpare per quella mèta, d'onde le circostanze, l'educazione, ecc., tendevano forse a deviarlo. Così Darwin, come dicemmo, era predisposto alle grandi sintesi naturalistiche dall'eredità atavica, essendo parecchi dei suoi avi indirizzati verso la stessa sua strada, e l'ingegno suo già precocemente se ne era rivelato, fino a un certo punto, con l'idea di