¿Memoria innecesaria?

Cotiledón. Cotyledon orbicular

Los que tienen una cierta edad se educaron en la creencia de que la memoria era imprescindible para el aprendizaje. La mayor parte del saber se adquiría de memoria, y, a la hora de demostrar los conocimientos adquiridos se realizaban exámenes, en los que había que recurrir a la memoria para quedar en buen lugar.

Este tipo de aprendizaje, llamado memorístico, ha sido muy criticado en las ultimas décadas. Se le acusa de mecánico, repetitivo y poco dado a la creatividad, y se argumenta que el conocimiento así adquirido tiene tendencia a perderse pronto por olvido. Por otro lado se afirma que el conocimiento está en internet, por lo que no es necesario retener nada en la memoria.

Pero hoy ya sabemos que en internet el conocimiento no está sistematizado y ordenado, y que en lo que se encuentra no siempre es fácil distinguir la verdad de la mentira. Y sin una base de saber alcanzado mediante la memoria es muy difícil —si no imposible— adquirir en la web un conocimiento riguroso que capacite al estudiante para conseguir formarse un criterio propio. 

Como alternativa radical al uso de la memoria, diversos expertos —psicólogos y pedagogos fundamentalmente— mantienen que lo importante no es aprender unos determinados conocimientos, sino desarrollar competencias y habilidades. Según estos profesionales los alumnos no deben hacer uso de su memoria sino aprender a aprender, y recurrir a las fuentes cuando sea necesario. Y en función de estos planteamientos se han diseñado los nuevos recorridos curriculares.

Está claro que el aprendizaje de memoria no es la única forma de adquirir conocimientos. Pero rechazar la memoria como un método de aprendizaje supone rechazar el uso de una de las facultades cognitivas fundamentales del ser humano.

La memoria es una cualidad del cerebro que nos permite definirnos como tales humanos. Sin memoria no es posible recordar nuestro pasado y, con ello, imaginar nuestro futuro. Y la memoria —como los músculos—necesita ser ejercitada para mantenerla y aumentarla.

Es evidente que para desarrollarse como personas, los alumnos no tienen necesidad de aprenderse el nombre de los 33 reyes godos que hubo en España —que por cierto no fueron 33—, ni saber de memoria todos los ríos y lagos del mundo. Pero parece que no les va a ser fácil relacionarse correctamente en su mundo social y laboral sin saber dónde esta el río Ebro, cual es la capital de Rusia o quien escribió el Quijote, por poner solo unos ejemplos simples. Aunque esa información esté en internet hay que saber qué y dónde buscar. Y para ello hace falta usar la memoria.

Anuncio publicitario

Innovación crítica

Acacia farnesiana. Acacia

Hace ya algunos años que a las conocidas siglas de I+D —Investigación y Desarrollo— se le añadió una i minúscula —I+D+i—, letra que tardamos algún tiempo en saber que significaba Innovación.

Hay palabras que gozan de una gran aceptación social, aunque a veces no se tenga una clara idea de su significado. Una de estas palabras es innovación. Su invocación produce una fascinación, que no siempre esta debidamente justificada, aunque es evidente que su práctica ha producido una ingente cantidad de avances que hemos de valorar como muy positivos.

El desarrollo científico y tecnológico ha aumentado extraordinariamente nuestra capacidad de satisfacer nuestras necesidades, pero parece que esta formidable capacidad nos ha llevado a situaciones que nos están provocando serios problemas, que afectan a nuestra calidad de vida. A titulo de ejemplo, véanse algunas de las consecuencias que la actuación del hombre ha provocado —cambio climático, contaminación ambiental, islas de plástico en los océanos, etc.—, que son también, no hay que olvidarlo, consecuencias de la innovación.

En contra de la opinión generalizada, la innovación no siempre es positiva. La creencia de que una idea es necesariamente mejor por el mero hecho de ser más reciente es falsa. Este afán de novedades —las marcas comerciales conocen bien el atractivo del vocablo «nuevo»— no siempre se acompaña de un adecuado conocimiento del fin que se persigue con la innovación.

Una muestra de esta falta de crítica sobre la «siempre beneficiosa» innovación la tenemos en la aparición de nuevos ámbitos de deliberación política. La promesa de que las redes sociales iban a mejorar la calidad de las democracias, facilitando el acceso de los individuos al conocimiento de la actividad política, y de su participación en dichas actividades, se ha demostrado falaz. No es solo la existencia de las tremendamente difundidas «fake news» —mentiras—, sino que la enorme sobreexposición a las informaciones esta dificultando la necesaria reflexión sobre ellas, así como estimulando reacciones emotivas que poco contribuyen al necesario debate racional.

La ciencia y el conocimiento gozan de una aceleración que es tremendamente productiva. Por ello se hace más necesario que nunca una reflexión critica, que nos permita orientar los fines que su gran capacidad transformadora persigue. Si no corremos el riesgo de ser engullidos por nuestras creaciones.

Felicidad y dicha

Plectranthus caninus

Desde Aristóteles hasta nuestros días pocos conceptos han ocupado más páginas en las obras filosóficas y literarias que la felicidad, cuya consecución se ha considerado como el único fin de la existencia humana. Ser feliz ha sido el deseo de todos los hombres de todas las épocas. 

Para los filósofos clásicos la felicidad requería de tales condiciones que, prácticamente, alcanzarla era una utopía imposible de conseguir. La llegada del cristianismo supuso una explicación a esta imposibilidad. Según la religión cristiana —“mi reino no es de este mundo”— el hombre debía esperar a la otra vida para alcanzar la felicidad.

El Renacimiento, como es sabido, puso al hombre en el centro. Los filósofos de la época la definían como un deleite del cuerpo y el alma que se busca continuamente pero que, como concepto absoluto, era prácticamente inalcanzable.

A mediados del siglo XVIII los filósofos de la Ilustración redefinieron el concepto de felicidad, planteándola como un derecho individual, alcanzable en este mundo como consecuencia de la practica de la libertad individual, con el único limite de la libertad de los demás hombres. Según este enfoque, la consecución de la felicidad sería una obligación de los Estados para con sus ciudadanos. 

A pesar de la progresiva instauración de medidas encaminadas a su consecución, las encuestas demuestran que el grado de insatisfacción de la ciudadanía es muy alto. Y como muestra de ello véase la inmensa producción de cursos, seminarios y libros cuya pretensión es enseñar a los seres humanos a ser felices.

En la inmensa mayoría de estas propuestas formativas subyace una redefinición del concepto. Ahora se nos plantea la felicidad no como un concepto absoluto, sino relacionado con nuestra vida real. Se trata de lo que se ha venido en llamar “la felicidad de las pequeñas cosas”.

Esta aparentemente novedosa propuesta ya fue planteada hace más de 400 años. Girolamo Cardano, médico, filósofo y enciclopedista del siglo XVI, también estudio el concepto de felicidad. Entre sus numerosos libros destaca uno titulado Mi vida, una especie de autobiografía en la que expresó lo que él deseaba para su vida. Ante la imposibilidad de conseguir el absoluto que es la felicidad, optó por proponer un concepto relativo, al que denominó dicha, entendida ésta como el fruto de vivir la vida gozosa y libremente.  

En su libro describió algunos de los componentes de lo que, para él, constituían la dicha: «El reposo, la tranquilidad, la templanza, el orden, la risa, los espectáculos, el trato con los demás, la contención, el sueño, los paseos, la meditación, la crianza de los hijos, el cariño de la familia, el matrimonio, la memoria bien ordenada de nuestro pasado, las audiciones musicales, el recreo de la mirada, la libertad, el dominio de sí, los perrillos, la práctica de alguna habilidad que dominamos bien; y elegir un lugar para vivir, porque las tierras cobijan hombres dichosos, no los hacen».

“Nihil novum sub sole” —nada nuevo bajo el sol—, que parece que dijo el rey Salomón.

Cardo de Maria. Silybum marianum

Algoritmos

Aunque los algoritmos ya se usaban en el pasado, en los últimos años su utilización se ha generalizado, abarcando todas las facetas de la actividad humana. Mediante algoritmos se toman numerosas decisiones que afectan nuestra vida de una manera cada vez más amplia e importante. 

Pero ¿qué es un algoritmo? De forma muy simplificada un algoritmo es una serie de instrucciones sencillas que se llevan a cabo para solventar un problema. Una definición mas precisa sería «conjunto de reglas que, aplicadas sistemáticamente a unos datos de entrada apropiados, resuelven un problema en un numero finito de pasos elementales».

Hoy los algoritmos se usan —a titulo de ejemplo— para conocer nuestros gustos, aplicar tratamientos médicos o predecir resultados electorales. Y los trabajos en que nos ocupamos los humanos se van sometiendo progresivamente a algoritmos: las tareas a realizar se convierten en algoritmos y estos permiten automatizar el trabajo. Las únicas tareas que —por ahora— no pueden ser objeto de algoritmos son las relacionadas con la creatividad y las emociones humanas.

Los seres humanos llevamos siglos usando esta forma de proceder. Pero la llegada de los ordenadores ha facilitado enormemente su desarrollo. Recordando la definición que dábamos en el segundo párrafo, estas máquinas pueden procesar una enorme cantidad de datos de entrada y realizar una ingente cantidad de operaciones en fracciones de segundo. Solo hay que decidir adecuadamente las reglas a aplicar a los datos que le proporcionamos. Este matrimonio entre algoritmos y ordenadores es lo que está cambiando el mundo.

Pero los algoritmos no son entes autónomos, sino que detrás hay personas. Y son solo unas pocas de ellas —los directivos de las empresas— las que deciden cuales son los problemas que nos afectan y que reglas se van a seguir para solventarlos. Y los que aplican estas decisiones son los programadores, que transforman estas decisiones en un conjunto de instrucciones, que las máquinas puedan entender.

El poder de los programadores e ingenieros informáticos es tal, que algunos han decidido desarrollar un código ético para evitar parte de los problemas que pueda acarrear la tecnología. Dado su papel en el desarrollo de los programas informáticos, los ingenieros y programadores tienen numerosas oportunidades para generar beneficio o provocar daño a los demás. O para permitir o influenciar a otros para causar beneficio o generar daño.

Así, en la actualidad, debemos ser conscientes de que la información que recibimos cuando hacemos una búsqueda en internet, el recorrido a seguir hasta llegar a nuestro destino, cual es el hotel que nos conviene reservar, o que productos nos interesaría comprar, todo ello son decisiones tomadas por algoritmos, que a su vez se basan en algoritmos que —previamente— han analizado nuestro comportamiento para conocer lo que nos debe interesar.

Tremendo el poder que algunas personas han logrado alcanzar. Nunca tan pocos controlaron a tantos, y de forma tan intensa.

Natural

La palabra natural goza de una gran aceptación entre los consumidores. Todo producto que lleve la palabra natural en su etiquetado tiene mayor aceptación que otro que no la lleve. La publicidad se ha encargado de convencernos de que lo natural es mejor, y muchos están convencidos de que comer natural es mejor para la salud. El fenómeno ha alcanzado tal relevancia económica que el calificativo se aplica no solo a las cosas de comer, sino que se utiliza para cosas tan curiosas como la ropa, menaje de cocina, etc.

Pero ¿qué expresamos en realidad cuando utilizamos la palabra natural para referirnos a un producto? De las 18 acepciones que el Diccionario de la Lengua Española da para la palabra natural nos quedaremos con aquella que hace referencia al tema que nos ocupa: «natural es todo aquello que está tal como se halla en la naturaleza, o que no tiene mezcla o elaboración».

Si intentamos aplicar esta definición a lo que comemos habitualmente, prácticamente ninguno de los productos que consumimos es natural, casi ninguno está tal como se halla en la naturaleza. A titulo de ejemplo, cualquier verdura, fruta o legumbre que ingerimos ha sido objeto de un elaborado proceso de selección a través de los siglos para escoger aquellas variedades que mejores resultados daban. Prácticamente ninguno se ha recogido en el campo tal como los produce espontáneamente la naturaleza, sino que han sido sometidos a un complejo proceso de cultivo.

En el fondo de esta posición figura la contraposición tan extendida entre natural y artificial. Lo natural sería lo genuino, lo no alterado por el hombre y artificial sería el producto de procesos químicos, lo que denominamos despectivamente como «química».

Sin embargo, esta aproximación no se ajusta a la realidad. La vida —todo en la naturaleza— es el resultado de un proceso químico, es química. En el pasado se pensaba que la materia viva tenía unas propiedades químicas diferentes a las de la materia inerte: los procesos químicos que se dan en un pájaro eran distintos a los que se dan en una piedra. Sin embargo, hoy sabemos que esto no es así, que todas las reacciones que se producen en un ser vivo son reacciones químicas, que la bioquímica es la química que se da dentro de un ser vivo, y que las reacciones que se dan en su interior siguen las mismas leyes que los procesos que se dan fuera de él.

Las propiedades de un producto dependen de su composición, de las moléculas que lo integran, no de donde son originarias. Por lo tanto, la palabra natural solo haría referencia al origen del producto; nos vendría a decir —si hemos de creerlo— que viene de la naturaleza, pero no que sea mejor ni peor. Dos productos que tengan la misma composición tendrán exactamente las mismas propiedades —sabor, color, olor y beneficios o perjuicios para la salud—, independientemente de dónde y cómo se hayan obtenido: ya sea de la naturaleza o mediante síntesis química.

Por lo tanto, debemos tener claro que cuando nos referimos a algo natural, en el mejor de los casos nos estamos refiriendo al origen, no a las propiedades ni a la calidad del producto. Y son estos últimos aspectos los que tenemos que vigilar para tener una alimentación sana.

Agnogénesis

En ocasiones anteriores hemos escrito sobre el conocimiento y sobre la importancia de diferenciar conocimiento de opinión. De hecho, hay toda una disciplina, la epistemología, que se encarga de estudiar la teoría y fundamentos del conocimiento científico.

La ignorancia es la falta de conocimiento y, tradicionalmente, esta se ha atribuido a la falta de interés o incapacidad de la persona para aprender lo que puede y debe saberse. 

Sin embargo, en los últimos tiempos ha surgido un nuevo tipo de ignorancia, que es aquella inducida culturalmente. Sería un desconocimiento o duda que se provoca artificialmente. No es que el individuo no acceda al conocimiento, sino que su entorno —su ambiente cultural— siembra dudas generalizadas sobre el conocimiento científico, publicando trabajos científicos —pagados o rechazados como erróneos por la comunidad científica— que ponen en duda lo afirmado por la ciencia, con la idea de que el ciudadano le de la misma credibilidad a todo.

El tema es de tal trascendencia que se ha acuñado un término para designarlo: agnotología —también agnatología—. Este concepto —contrario a la epistemología— define al estudio de la ignorancia o duda inducida culturalmente, en especial a la provocada por la publicación de datos científicos erróneos, inexactos o engañosos.

El concepto fue utilizado por primera vez en 1995 por el profesor Proctor de la Universidad de Stanford (USA). En las décadas precedentes la investigación científica había demostrada fehacientemente que el tabaco era el causante de numerosas enfermedades, especialmente el cáncer de pulmón. La industria tabaquera estadounidense, al ver el peligro que corría su negocio, pagó a algunos científicos para que realizaran estudios que demostraran que el tabaco no era dañino para la salud. La publicación de esos estudios sembró la duda entre muchos ciudadanos, generando un desconocimiento que ha durado hasta los años finales del siglo XX. Esto dio motivo al profesor norteamericano para estudiar el fenómeno y acuñar el término.

Según Proctor, esta ignorancia se origina de forma activa en la sociedad a través de fuentes con intereses particulares, que de forma deliberada contribuyen al desprestigio del conocimiento científico. Estas actuaciones generan desconocimiento, a pesar de la abundancia de información.

A esta tecnología de la desinformación, a la generación de ignorancia inducida, es a lo que se ha llamado agnogénesis. Esta técnica permite la persistencia de creencias tales como la falsedad de la teoría de la evolución o la duda sobre la forma de la tierra, por poner dos ejemplos simples. Estas actividades persiguen negar la credibilidad de las fuentes científicas —por muy solventes que sean—, e incluso negar los propios hechos.

Esta generación intencionada de ignorancia, promovida muchas veces por corporaciones o políticos, necesita la colaboración de expertos en comunicación, periodistas y medios de comunicación que, de forma voluntaria o comprados, consiguen confundir a los ciudadanos.

Ya hemos comentado en alguna ocasión que un ciudadano ignorante es fácilmente manipulable. Siempre se dijo que la información era poder. Pero parece que los poderosos de todo tipo han aprendido que la ignorancia de los ciudadanos también es poder para ellos. Y por ello invierten gran cantidad de recursos en la agnogénesis, o sea, en la creación de ignorancia.

La mentalidad científica

Desde hace al menos dos siglos el individuo se mueve entre dos tendencias aparentemente antagónicas. Por un lado, el racionalismo, basado en evidencias científicas, y por otro las creencias intuitivas o las imágenes subjetivas que el individuo se forma de la realidad que le rodea, En tales situaciones, cuando hay contradicciones entre ambas, la mente de la persona se inclina por creer aquello que se adecua más a su creencia, por más que la evidencia científica diga lo contrario.

El método científico, en el que se basa esta mentalidad, no existió siempre. Se desarrolló hace unos doscientos años, y desde entonces se ha usado para hacer avanzar a la ciencia. La mentalidad científica es una determinada manera de pensar, vinculada a un modo de reflexión sistemática, que pretende —y consigue— crear conocimiento y explicar nuestro mundo mediante la observación sistemática y la posterior comprobación de forma objetiva de las realidades observadas. Entendida como tal, esta mentalidad no es —ni debe ser— exclusiva de los científicos.

Con frecuencia, la mentalidad científica no nos facilita el conocimiento completo de algo, sino solo una parte de la realidad. Permite establecer una porción de la verdad, que en sucesivas investigaciones va siendo completada por nuevas aportaciones. Por otro lado, a veces las explicaciones que nos da la ciencia no se ajustan a las ofrecidas por la tradición o no coinciden con lo que el ciudadano de la calle considera de sentido común o con lo que él cree o piensa. Y esto se utiliza por parte de algunos para negar el valor de esta mentalidad, afirmando que en el pasado —a veces reciente— las cosas se han explicado de una manera que no coincide con la forma en que se explican en la actualidad.

Por ello, y a pesar de lo abrumador del conocimiento aportado por la ciencia, aún hay quien sigue sin aceptarla. Aunque la evidencia científica en contra es enorme, aún hay quien sigue pensando que la tierra es plana o las vacunas producen enfermedades en los niños, por poner solo dos ejemplos de creencias de moda.

El hombre común presenta cierta tendencia a resistirse ante afirmaciones científicas que contradicen sus creencias intuitivas o la imagen subjetiva que se forja de la realidad. Una vez que una idea, por nula base que tenga, se integra y generaliza en la mentalidad colectiva no es fácil su desarraigo por la autoridad científica.

¡Que le vamos a hacer!

¿Existe la verdad?

Echium plantagineum L. Viborera de Canarias.00002

En un par de ocasiones, en el pasado, hemos tratado en este blog las denominadas “fake news”—es decir las mentiras —propagadas por las redes sociales. Lo que parecía una curiosidad más se ha convertido en uno de los problemas más serios que tienen en la actualidad las sociedades occidentales.

De la propagación por algún sujeto —las más de las veces malintencionado— de alguna mentira dirigida a denostar a alguien o a algo, se ha pasado a toda una industria de la desinformación donde miles de individuos se encargan de idear mentiras sobre cualquier tema que les parezca útil —social, política o económicamente— a sus promotores, mientras los robots informáticos se encargan de difundirlos masivamente por las redes sociales.

Los mensajes falsos alcanzan a millones de personas, cuya lectura afecta de alguna manera a sus opiniones y/o conciencia. Tras su recepción, estos lectores pasan a su vez a difundirlas, sin haber hecho el más mínimo esfuerzo para confirmar o no la veracidad de la “noticia” recibida. Las mentiras difundidas masivamente están creando una tipología de individuos que se lo creen todo o que, por el contrario, no se creen nada, alterando o anulando en ambos casos su capacidad crítica, la que les permitiría analizar la realidad con una cierta objetividad.

El fenómeno, que esta teniendo enormes repercusiones sociales y políticas —piénsese en su efecto en las elecciones celebradas en los últimos dos años en occidente —alcanza ya proporciones que alarman no solo a los políticos y sociólogos, sino a los propietarios de las referidas redes sociales, que piensan que la actual situación puede afectar a sus propios negocios.

Así Facebook, Twitter, Instagram y otras redes se están planteando la conveniencia de establecer algunos filtros que permitan descubrir las noticias falsas y dificultar o impedir la difusión de estas por sus redes, sea cual sea su origen.

Tim Cook, jefe de Apple, lo ha advertido: “en cierto modo las noticias falsas están matando las mentes de la gente”. Asimismo, advierte de que, en un mundo digital, donde los que ganan son los que obtienen mas clics —no los que dicen la verdad—, se hace necesario realizar un gran esfuerzo educacional para dotar a los individuos de herramientas que les permitan diferenciar lo verdadero de lo falso. Porque, aunque algunos se empeñen en relativizarlo todo, la verdad existe. Igual que la mentira.

Como vemos, esto es un tema serio que afecta a los ciudadanos que intentan ser libres. Deberíamos pensar en ello la próxima vez que recibamos una “noticia” antes de reenviarla a nuestros conocidos.

No todo es negativo

IMG_2365 copy

Una tendencia muy extendida entre los españoles es la valoración global del país. España es el mejor país del mundo o España es un país tercermundista.  Se es poco dado al análisis pormenorizado, valorando lo positivo y aislando los elementos negativos que deben mejorarse.

La revista The Economist, de más que demostrada independencia editorial, ha publicado en los últimos meses un informe sobre España, en los que analiza numerosos aspectos políticos, sociales y económicos. Para los lectores analíticos, hemos de decir que esta revista semanal —fundada en 1843 y con sede en Londres —sigue una línea editorial liberal que apoya la libertad económica, el libre comercio, la globalización, la inmigración y el liberalismo cultural. Es una de las publicaciones más prestigiosas del mundo —si no la más —, reconocida por el rigor de sus artículos.

En su informe valora los aspectos que considera positivos y negativos de España. El nivel económico del país, la esperanza de vida, el sistema sanitario, el acceso a la enseñanza y las infraestructuras son consideradas como muy positivas, situando al país entre los veinte primeros del mundo. Las libertades civiles, tan denostadas por algunos últimamente, están al nivel de las democracias europeas más consolidadas, incluidas las nórdicas. España, señala el informe, es un país que respeta los derechos humanos, la separación de poderes y se encuentra en las posiciones más elevadas en cuanto a calidad de la democracia.

Como todo análisis objetivo, la revista también critica los aspectos que, a su juicio, son negativos. La corrupción política, la tremenda tasa de paro, la profunda y duradera crisis económica y la creciente desigualdad son destacados como graves problemas que se han de resolver. Asimismo, refiere otros temas negativos como las desigualdades regionales, la financiación autonómica, algunos desmadres constructores en varias autonomías y —sobre todo —las desigualdades personales. A ello une, en los últimos tiempos, los problemas políticos derivados de Cataluña, cuyo impacto negativo destaca.

Como resumen podemos decir que —en muchos aspectos y según The Economist —España es un lugar extraordinario para vivir. Pero esto no quiere decir que no haya aspectos que debamos mejorar.

Por ello quizás deberíamos ir aprendiendo a dejar las descalificaciones globales, ir ejercitándonos en detectar y analizar aquellos aspectos negativos que deben ser cambiados, y dedicar nuestras palabras y esfuerzos a intentar modificarlos. Se trata de cambiar las partes, para que el todo resulte mejor.

 

Autorregulación

Flores copy

Recién recuperada la democracia, en el ultimo tercio del siglo pasado, surgieron en España importantes debates, siendo uno de los mas interesantes el de los limites de la libertad. Se debatió en profundidad sobre las libertades, siendo motivo de especial controversia el papel del Estado y la propia ciudadanía en la regulación de dichas libertades.

De forma resumida se planteaban dos posiciones básicas: unos eran partidarios de la regulación de la mayor parte de los aspectos por parte del Estado y otros preferían reducir el papel del Estado a la mínima expresión, y solo para los grandes temas —libertad de expresión, sindical, etc.— y dejar los temas “menores” a la responsabilidad de los ciudadanos, confiando en que ellos serían capaces de encontrar el punto adecuado.

El gran contaminante —el dinero— pronto se mostró con su verdadero rostro y surgieron acciones que eran consideradas abusivas por la mayoría de la ciudadanía, especialmente en temas como los limites de la libertad de las empresas en general y de las de prensa y publicidad en particular. Por ello, y ante la alternativa de que el Estado regulara en demasía, surgieron propuestas de acuerdo por los que estas empresas entendían que se habían propasado en ocasiones y proponían a la sociedad crear sus normas de regulación, la autorregulación, por la que las propias empresas se pondrían limites en sus actuaciones para que no fuera necesaria la intervención del Estado.

Más modernamente este concepto, autorregulación, ha pasado a denominarse Responsabilidad Social de la Empresa. Con esta política las empresas expresan su compromiso para limitarse en aquello que pudiera ser ajeno a la ética empresarial o, eventualmente, perjudicial para los ciudadanos.

La realidad de estos últimos años ha mostrado que esta autorregulación falla con frecuencia. La presión del dinero hace que no se respeten los acuerdos alcanzados y que palabras como autorregulación o Responsabilidad Social de la Empresa queden con frecuencia en papel mojado, ejerciendo un efecto negativo sobre aquellas entidades que sí se responsabilizan y funcionan con una adecuada ética empresarial.

Parece pues que sigue siendo válido aquel antiguo refrán que dice: “el que a si mismo se capa, buenos coj… se deja”.