SciELO - Scientific Electronic Library Online

 
vol.8 número1Agenda legislativa sobre datos personales en ChileCriptomonedas, economía y derecho índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Compartir


Revista chilena de derecho y tecnología

versión On-line ISSN 0719-2584

Rev. chil. derecho tecnol. vol.8 no.1 Santiago jun. 2019

http://dx.doi.org/10.5354/0719-2584.2019.52560 

Doctrina

Estandarización y automatización en medicina: El deber de cuidado del profesional entre la legítima confianza y la debida prudencia

Standardization and automation in medicine: The duty of care of health professionals between fair reliance and due diligence

1Universidad Andres Bello, Chile

Resumen:

En la primera parte de este artículo se retoma el debate sobre la responsabilidad penal por mala práctica médica imprudente ante la progresiva estandarización de las prácticas clínicas. Su consideración crítica permite configurar un paradigma de imputación capaz de conjugar los intereses de los pacientes con aquéllos de los profesionales de la salud. En la segunda parte se plantea la hipótesis principal, argumentando cómo el mismo paradigma puede permitir marcar los límites de la responsabilidad del profesional por eventos adversos causados por la adopción de indicaciones erróneas de sistemas de inteligencia artificial. En las conclusiones se destaca cómo todo proceso de uniformación y automatización encuentra límites insuperables en el pluralismo, la autonomía y la ética de la responsabilidad.

Palabras clave: Estandarización; automatización; principio de confianza; prudencia; inteligencia artificial

Abstract:

The first part of this article deals with the debate on the limits of criminal medical malpractice, facing the standardization of clinical practices. Its critical consideration allows us to configure a paradigm of imputation capable of combining the interests of the patients with those of the health professionals. In the second part, the author raises the main hypothesis, arguing that the same imputation paradigm could allow regulating medical liability for adverse events provoked by the adoption of indications provided by Artificial Intelligence systems. In the conclusions, he highlights how standardisation and automation processes find insurmountable obstacles in the defence of pluralism, autonomy and the ethics of responsibility.

Keywords: Standardization; automation; reliance principle; Vertrauensgrundsatz; health-care; medical malpractice

La medicina basada en la evidencia y la estandarización de las prácticas clínicas

El paradigma de la medicina basada en la evidencia (evidence-based medicine, EBM) ha favorecido la progresiva estandarización de las prácticas clínicas en las últimas décadas ( Rogers y Hutchison , 2015; Sackett y otros, 1996: 71-2). Esta tendencia se ha reflejado en la adopción cada vez más extendida a nivel mundial de protocolos y guidelines por parte de las asociaciones científicas y las instituciones hospitalarias, hasta lograr su reconocimiento tanto en el marco de las regulaciones positivas en materia de responsabilidad médica, como también ante instancias judiciales (Di Landro, 2012).

En los Estados Unidos, el Practice Guideline Movement se consagró antes que en otros sistemas, tanto a nivel científico, como también político y jurídico ( Di Landro, 2018 : 2-3). En ese contexto, los primeros sistemas de guidelines fueron desarrollados a principios de los años setenta del siglo pasado ( Woolf, 1990 : 1.811), y fueron impulsados sobre todo en los ochenta por parte de las asociaciones médico-profesionales y las empresas de seguros ( Mello, 2001 : 649).

Plataformas de guidelines y bases de datos similares, 1 de naturaleza tanto pública como privada, han sido y siguen siendo implementadas no solo a nivel nacional, 2 sino también con el objetivo de ofrecer «metaanálisis» ( Glass, 1976 : 3-8; Rogers y Hutchison , 2015: 15) 3 y protocolos de actuación idóneos para definir estándares clínicos válidos a nivel global. Asimismo, estos sistemas constituyen referencias fundamentales —también por remisión expresa de algunas previsiones legales— a la hora de juzgar la responsabilidad de los profesionales por mala práctica médica. En efecto, dichas fuentes deberían indicar los estándares de diligencia objetivamente exigibles a los profesionales médico-sanitarios y, por ello, los parámetros de juicio idóneos para juzgar la conducta de los médicos que, infringiendo su «deber de cuidado», 4 ocasionen —o no eviten— eventos adversos.

Sin embargo, ningún sistema de guidelines ha sido concebido como rigurosamente unitario o exhaustivo; ni siquiera en Estados Unidos se ha estimado como posible el otorgar a una única instancia el rol de arbitrar las buenas prácticas clínicas ( Di Landro, 2018 : 10; Liang, 1992 : 1.257-1.258; Rosoff, 2001 : 344). Este aspecto resulta muy relevante si se considera que, ante el problema de la excesiva judicialización de la medicina y el fenómeno de la «medicina defensiva», recientes reformas en materia de responsabilidad médica apuntan a la creación de bases de datos oficiales —reconocidas como tales por parte de las instituciones públicas— de dichas prácticas ( Perin, 2018 : 865, 867, 877).

El objetivo de la recolección y sistematización de las prácticas clínicas consiste en proporcionar a los profesionales médicos guías, pautas de conducta y referencias más fiables y estandarizadas y, por consiguiente, de un mayor nivel de previsibilidad en cuanto a los estándares de diligencia esperables de ellos. El conocimiento científico se haría de este modo garante de la seguridad jurídica. No obstante, como veremos a lo largo del trabajo, dicho propósito encuentra diversos límites. 5 Y dichos límites se deben tener en cuenta también en el contexto actual de la progresiva automatización de la medicina curativa a través de la implementación de sistemas de inteligencia artificial.

Estandarización y responsabilidad por mala práctica médica (imprudente): La búsqueda de un equilibrio razonable

Ante la implementación de las mencionadas plataformas de indicaciones diagnósticas y terapéuticas normalizadas, 6 una cuestión que se plantea desde el punto de vista de la responsabilidad es la siguiente: ¿en qué condiciones una lex artis estandarizada puede influir en la definición de la expectativa normativa —el denominado «cuidado debido»—, cuyo incumplimiento puede suponer la responsabilidad jurídica (civil o penal) del médico, en la hipótesis de que se hagan conductas adversas? Es decir: ¿de qué manera y hasta qué punto un estándar médico-científico puede heterodeterminar el marco y los límites de la actuación adecuada y lícita del médico ante el derecho y en el marco de un juicio de imputación?

Para abordar esta cuestión, hay que tener en cuenta algunos elementos que revisten complejidad. En primer lugar, hay que considerar la heterogeneidad de las denominadas guidelines. En efecto, existen normas de actuación de carácter estrictamente técnico-científico, e indicaciones dictadas atendiendo también —o más bien— a criterios de carácter económico y organizativo (Di Landro, 2012). A este propósito, si bien es cierto que los primeros tendrán una relevancia prioritaria, éstos tendrán necesariamente que conjugarse con los segundos. En efecto, los protocolos organizativos pueden ser relevantes para regular el trabajo en equipo y, en particular, para determinar el alcance y los límites del «principio de confianza» de cada miembro hacia los demás ( Contreras Chaimovich, 2019 : 37; Fernández Cruz, 2002 ). Además, la definición del cuidado debido no puede prescindir de los protocolos dictados por razones de carácter económico, pues una correcta utilización de los recursos disponibles permite alcanzar mejores y más efectivos resultados para la generalidad de los beneficiarios de los sistemas de salud —sobre todo cuando se trate de sistemas públicos—, al evitar que se fomenten prácticas de medicina defensiva «positiva» ( Perin, 2018 : 865).

En segundo lugar, hay que considerar la eventualidad de que no exista uniformidad de parecer o un consenso suficiente en el marco de la comunidad científica acerca de cómo actuar ante circunstancias comunes o condiciones clínicas típicas y, por ello, generalizables (Di Landro, 2012: 150). Este aspecto resulta problemático, pues entre las guías que pudieran pertenecer a una codificación de estas materias, solo algunas resultan finalmente reconocidas por las instituciones públicas como referencias oficiales también para los operadores de los sistemas de justicia. Se plantea entonces el problema de cuáles criterios pueden permitir seleccionar las guidelines que profesionales y tribunales deberán considerar válidas y fiables: tanto ex ante, a la hora de escoger la estrategia diagnóstica y terapéutica más adecuada; como ex post, a la hora de juzgar la responsabilidad del médico ante la realización de un evento adverso.

En tercer lugar, mientras que algunas guidelines resultan adecuadas para indicar pautas diagnósticas y terapéuticas antes casos clínicos típicos, otras pueden resultar tan ambiguas o genéricas como para no poder ofrecer realmente indicaciones útiles para guiar la práctica clínica ( Beggio, 2019 ).

Teniendo en cuenta lo anterior, la discusión a propósito de la concreción (o heterointegración) del «cuidado debido» del médico a través de protocolos y guidelines se presenta protagonizada a nivel comparado por dos paradigmas teóricos alternativos.

Conforme al modelo «deóntico-objetivo» (o «generalizador»), el criterio general que permite precisar el contenido normativo del deber es el de la previsibilidad del resultado lesivo en concreto, aplicado desde la perspectiva ex ante de un parámetro normativo ideal-típico dotado de los conocimientos y las capacidades que sea preciso exigir objetivamente a los miembros típicos del grupo social o profesional al que pertenezca el autor del hecho (Perin 2017, 211; Rueda Martín, 2009 : 48 y ss.). 7 Esta perspectiva lleva consigo una consecuencia fundamental: el mero cumplimiento de un protocolo o de una guideline no supone la impunidad del profesional ante la posibilidad de que, en el marco del juicio, se pueda argumentar que el médico hubiese podido y debido actuar de otra manera; esto es, conforme a un estándar mayor, distinto o bien más actualizado que el sugerido por el protocolo adoptado ( Perin, 2018 : 870). En otras palabras, existe la posibilidad de que se le impute al profesional una responsabilidad «residual», esto es, basada en el incumplimiento de una expectativa de conducta diversa y en su caso más exigente o actualizada de la indicada por las pautas estandarizadas que él o ella ha considerado pertinente adoptar.

Sin embargo, como es sabido, la indeterminación intrínseca del parámetro normativo en cuestión favorece la tendencia de los tribunales de justicia a objetivizar los juicios de imputación, a menudo afectados por hindsight bias, o «perjuicio de retrospectiva» ( Haskel, 2007 ; Oeberst y Goeckenjan ,2016 ).

Debido a ello, se ha defendido la necesidad de adoptar un modelo de imputación de tipo «praxeológico-positivístico», el cual limita el alcance de la responsabilidad médica por mala práctica (imprudente) a las infracciones de las pautas de conducta previamente determinadas por protocolos, guidelines, buenas prácticas no positivizadas —pero ya consensuadas y de «uso común»— et similia ( Perin, 2017 : 213). Este paradigma supondría un enfoque más garantizador, pues el «cuidado debido» no vendría a precisarse acudiendo a un parámetro normativo ideal —entregado a la discrecionalidad del tribunal—, sino a través de pautas de conducta ya reconocidas y adoptadas en el ámbito profesional, lo que de esta forma excluye que se puedan configurar hipótesis de responsabilidad «residual», es decir, basadas en exigencias y estándares determinados por el tribunal en el marco del juicio y más allá de lo típicamente indicado ante ciertas tipologías de casos clínicos.

Sin embargo, también este planteamiento presenta ciertos límites ( Perin, 2018 : 873). En efecto: i) existen casos clínicos atípicos, que exigen recurrir a medidas de intervención asimismo «atípicas» —esto es, no predeterminadas o predeterminables por protocolos o buenas prácticas—; ii) la medicina es una técnica basada en conocimientos en constante evolución y a menudo controvertidos; iii) es necesario reconocer ciertos márgenes para la libertad de método y de tratamiento, siempre que se respete la voluntad del paciente (Romeo Casabona, 2011: 269).

El valor no decisivo de las guidelines: Un paradigma compromisorio

La relevancia del debate protagonizado por los paradigmas teóricos indicados se aprecia en primer lugar en el plano axiológico, ante supuestos en los que el parámetro normativo de la «persona sensata y prudente» 8 podría llevar el juez a fijar estándares de cuidado más estrictos y actualizados respecto de los establecidos por protocolos médicos. En efecto, mientras que el primer paradigma («deóntico-objetivo») antepone la instancia solidaria representada por el deber de intervención —en su caso, más allá de lo predeterminado— a la seguridad jurídica, la inspiración individual-garantista del segundo («praxeológico-positivístico») se refleja en una concepción más estricta del principio de legalidad —y su corolario de taxatividad— como exigencia típicamente liberal, lo que supone rechazar de plano la existencia de deberes de cuidado no previamente determinados (esto es, deberes de cuidado «atípicos»). 9

Se plantea entonces la oportunidad de definir un modelo de imputación «compromisorio», que evite o mitigue los límites de ambos —antes señalados— y que permita conjugar las exigencias axiológicas a ellos subyacentes, esto es: i) la protección de los bienes jurídicos a través de la imposición de deberes de activación (solidaridad), por un lado; y ii) la protección de la libertad individual —reflejada en la instancia individual-garantista de legalidad y previsibilidad de la norma—, por otro.

Este modelo debería entonces estructurarse de tal manera que: i) el cumplimiento de las guidelines por parte del facultativo justifique una presunción solo relativa de «pericia», «prudencia» o «diligencia», en la medida en que hayan sido correctamente elegidas y aplicadas; ii) el incumplimiento de una guideline no pueda ser en ningún caso decisivo a efectos de la valoración judicial acerca de la responsabilidad del médico, 10 puesto que, en ocasiones, la vinculación al deber de cuidado requiere precisamente un alejamiento de la lex artis generalmente aceptada, para recurrir al criterio de lo que haría el profesional prudente en una situación semejante (Romeo Casabona, 2011: 271-272); 11 iii) pero que deberes residuales, «secundarios» o «atípicos» —y, como veremos, «relacionales»— puedan justificar imputaciones de responsabilidad solo en supuestos espacialmente cualificados —en su caso, de imprudencia grave—.

Este modelo general, ya asumido en algunos modelos regulativos 12 y orientaciones jurisprudenciales en el panorama del derecho comparado (Di Landro, 2012: 46 y ss.; 2018), 13 se estima razonable y equilibrado porque permite conjugar los intereses de los pacientes (protección de los bienes jurídicos vida y salud psicofísica) con los de los profesionales de la salud (seguridad jurídica).

En cuanto al interés del paciente, se evita fomentar en los profesionales una actitud de apego acrítico a los protocolos, permitiéndoles acudir a estándares terapéuticos más avanzados y eficaces, aunque (aún) no formalizados o codificados, cuando éstos podrían suponer un mejor resultado terapéutico. De este modo, el médico puede actuar dentro de márgenes adecuados de libertad (de método y tratamiento) ante la evolución del conocimiento científico, las posibilidades terapéuticas, y la necesidad de individualizar las estrategias terapéuticas ante casos clínicos particulares.

Desde la óptica del profesional y de su protección frente a la amenaza de la sanción, este criterio puede ofrecer garantías suficientes en términos de seguridad jurídica. En efecto, si bien es cierto que se le atribuye la responsabilidad residual de evaluar autónomamente la oportunidad de cumplir o alejarse del protocolo, se reduce también el riesgo de una sobrevaloración del papel de las guidelines; una sobrevaloración que podría llevar, a su vez, a afirmaciones automáticas de responsabilidad en hipótesis de inobservancia oportuna o necesaria de cara a las exigencias concretas y específicas del caso clínico de quo ( Cupelli, 2017 : 216). 14

Sin embargo, la mayor dificultad reconstructiva y aplicativa consiste en determinar cuándo y en qué condiciones el profesional debería responder por incumplimiento de estándares no predeterminados y definidos en el marco de proceso. Desde esta perspectiva, la necesidad de garantizar al facultativo frente a esa aleatoriedad (o falta de seguridad jurídica) que fomenta la practicas de medicina defensiva —sobre todo en hipótesis de error en la elección de la guía y de imprudencia «residual», es decir, no obstante el cumplimiento de una pauta predeterminada— podría concretarse en la adopción de normativas que limiten, precisamente en estas circunstancias, la responsabilidad del profesional a los supuestos de imprudencia grave. 15

Volveremos sobre la manera para conseguir este resultado más adelante, cuando indicaremos un criterio normativo útil a este efecto.

De la estandarización a la automatización: La implementación de la inteligencia artificial en la medicina diagnóstica y curativa

A la luz de lo anterior, la hipótesis que se quiere plantear en este trabajo es que la solución normológica general que se acaba de esbozar puede permitir marcar los límites de la imputación al profesional de eventos adversos causados por la adopción de indicaciones proporcionadas por sistemas de inteligencia artificial. 16

La premisa de nuestra hipótesis consiste en destacar analogías y continuidad que caracterizan a la estandarización y la automatización de las prácticas clínicas. En efecto, desde la perspectiva del profesional, el empleo de la inteligencia artificial en la medicina se puede ver como la etapa más avanzada de su proceso de estandarización. 17 Tanto las guidelines como los outputs elaborados por modelos computacionales son resultados de inferencias basadas en relaciones (generalizaciones) inevitablemente probabilísticas, emplean un lenguaje estandarizado y suponen una heterodeterminación del proceso decisional que, en principio, le correspondería al médico ( Liang, 1992 : 1.257; Seitinger y otros, 2018: 71-81).

Sin embargo —este es el mayor elemento de novedad—, en el nuevo contexto caracterizado por la implementación de sistemas de inteligencia artificial, la actuación médica no consiste en la aplicación de una guía predeterminada inductivamente desde y para casos clínicos típicos, sino en la adopción de indicaciones elaboradas ante casos clínicos específicos. 18 Esto podría inducirnos a sostener que al médico ya no le corresponde valorar la relevancia de la guía estandarizada frente al caso clínico concreto, pues la indicación diagnóstica y terapéutica se refiere precisamente a dicho caso clínico, lo que supondría una considerable disminución de la posibilidad (de este tipo) de error. Sin embargo, también en un contexto de automatización, la evaluación del profesional debería centrarse no solo en la adecuación intrínseca de la indicación, sino también en la adecuación extrínseca (per se) del modelo adoptado respecto del caso clínico.

Entre los empleos más relevantes de automatización en el ámbito de la medicina, los sistemas de deep learning (Ching y otros, 2018: 2, 21; LeCun, Bengio y Hinton ,2015 : 442) son los que más se acercan a las posibilidades de percepción del sistema nervioso humano ( Suk, 2017 : 3 y ss.), por lo que son utilizables en sectores como la oncología, la dermatología, la traumatología y la radiología. 19 Pero pueden darse aplicaciones también en los ámbitos de la experimentación clínica, 20 así como en el más propiamente terapéutico. 21 Por ejemplo, según un estudio publicado por un equipo investigador de la Universidad de Stanford ( Zitnik, Agrawal y Leskovec ,2018 ), el sistema «Decagon» sería capaz de prever los efectos adversos de las prescripciones simultáneas de fármacos (polypharmacy), y así ayudar a los médicos a encontrar combinaciones mejores y más seguras, sobre todo en aquellos casos en los que, de otra manera, y dados los límites intrínsecos de la experimentación casuística tradicional, no habría manera de saber qué podría suceder, esto es, cuáles podrían ser los efectos adversos de la prescripción.

¿Quién recomienda, quién decide y quién responde?

Supongamos entonces que un médico disponga del apoyo de un sistema computacional capaz de indicar el diagnóstico y (mejor) tratamiento ante un caso clínico determinado. El modelo señala una posible solución, una indicación automatizada —pero probabilística, y basada de todos modos en datos limitados, aunque en hipótesis numerosísimos— al tratamiento del caso clínico. 22

Ante esta situación, se plantean dos cuestiones ( Perin, 2019 : 229): i) ¿la disponibilidad de modelos capaces de proporcionarnos indicaciones terapéuticas de esta naturaleza nos autoriza a vislumbrar —o, incluso, desear— la futura sustitución del profesional? De esta manera, ¿quién sería el autor imputable de la indicación diagnóstica o la recomendación terapéutica?; ii) ¿qué sucede si el sistema comete un error, esto es, recomienda actuar de una forma que ex post se revela no adecuada? 23 ¿Y cómo tendría que actuar el médico cuyo parecer se aleje ya ex ante del diagnóstico recomendado por el sistema de inteligencia artificial?

El médico ante la inteligencia artificial

En cuanto a la primera cuestión, algunas razones fundamentales por las que deberíamos ser prudentes antes de imaginar —o desear— un escenario futuro en el que los sistemas de inteligencia artificial podrán prescindir de la supervisión e intervención del facultativo, ya han sido destacadas en la literatura especializada. 24

La primera razón se arguye del tipo aprendizaje que caracteriza a algunos sistemas de inteligencia artificial. Ya que la información que se les proporciona no puede ser 100 % fiable o neutral —pues tiene su origen en la obra de recolección, clasificación y categorización humana—, tampoco la actuación del modelo de learning machine podrá serlo del todo. 25

En segundo lugar, la interpretación y la comprensión de los criterios o parámetros en los que basan sus decisiones los sistemas más avanzados de deep learning —por ejemplo, aquéllos que acuden a convolutional neural networks (Watson y otros, 2019: 2)— resulta extremadamente compleja, también para quien elaboró el algoritmo original; nos referimos al problema de la interpretabilidad del modelo (Ching y otros, 2018: 12, 22; European Group on Ethics in Science and New Technologies, 2018: 6; González-Ferrer y otros, 2017: 55 y ss.; Watson y otros, 2019: 1-4). Entonces, ¿cómo podría el facultativo entregarse a una decisión cuya ratio no es comparable ni verificable?

Además, desde una óptica más bien ético-jurídica, la desaparición del profesional del ámbito decisional plantearía serios inconvenientes en términos de (re)configuración de la relación médico-paciente y, en particular, a efectos de establecer el acuerdo que concreta el consentimiento a la estrategia terapéutica; y de garantizar el ejercicio del —controvertido— derecho a recibir una explicación acerca del output del algoritmo (right to explanation). 26

Luego hay que considerar que existe un riesgo-seguridad: los sistemas son vulnerables y pueden ser manipulados a través de malware. 27 Y, finalmente, que algunas actividades propias de la medicina —por ejemplo, la revisión de rayos X— no se hacen sobre la base de razonamientos necesariamente lineales, sino también intuitivos, 28 y sobre la base de inferencias que permiten establecer conexiones causales sobre la base de «hipótesis» y generalizaciones nuevas; en otras palabras, abducciones «extraordinarias» o «creativas» (Tuzet, 2006: 93, 124). 29

Estas consideraciones nos llevan a concluir que los modelos actualmente disponibles pueden llevar a cabo tareas muy concretas, como alertar al médico de hacer ciertas acciones, comprobar el estado del paciente o incluso sugerir una solución diagnóstica o terapéutica, pero sin sustituir integralmente a la valoración y resolución del profesional. 30

Lo anterior es a propósito de los sistemas de machine learning, pero algo parecido se puede afirmar también sobre la robótica aplicada a la cirugía. En efecto, en la actualidad contamos con sistemas que ejecutan y corrigen la acción humana (L0 y L1); que ejecutan tareas bajo supervisión (L2), o que generan estrategias bajo supervisión humana (L3). Pero aún no se han alcanzado mayores niveles de autonomía o formas de actuación autónoma y sin supervisión humana (L4 o L5) ( Amoroso y Tamburrini ,2019 : 47 y ss.).

El médico y la asunción de responsabilidad

Centrémonos ahora la segunda cuestión: ¿en qué condiciones y hasta qué punto el profesional debería responder por haber asumido una decisión sugerida por un sistema de inteligencia artificial, sin haber apreciado la necesidad de proceder de otra manera?

Dejando ahora al margen otros aspectos problemáticos que, sin embargo, ya se plantean en la discusión actual, 31 y asumiendo que «para que haya responsabilidad, es preciso que exista un sujeto consciente» (De Siqueira, 2001: 280), cabe considerar cómo esta cuestión nos ubica en una situación comparable a la dada por la relación dialéctica entre el profesional y la guideline. En efecto, también en este caso se trata de medir la responsabilidad que cabe imputar al profesional, en circunstancias en las que su autonomía se ve reducida o condicionada por la indicación normalizada procedente de otro centro decisional. Y se trata de una situación que, a su vez, tiene mucho en común, desde el punto de vista normológico, con la situación asimismo relacional que se puede generar en el marco del trabajo en equipo, sobre todo cuando se trate de colaboraciones diacrónicas no presenciales, y por ello ciegas ( Perin, 2019 : 231).

Por esta razón, nuestra hipótesis se concreta en la consideración de que —pese a las dificultades de encontrar respuestas definitivas que, además, dependerán en buena medida del tipo de tecnología empleada, y su constante desarrollo—, para encontrar la herramienta normativa y categorial necesaria para abordar la cuestión que aquí nos ocupa, es posible acudir a la discusión tradicional sobre la responsabilidad médica.

Pues bien, ¿hasta qué punto podría entonces justificarse la imputación de responsabilidad por eventos adversos producidos en cumplimiento de indicaciones automatizadas? Podemos abordar la cuestión acudiendo a dos instrumentos normativos —esto es, dos criterios de evaluación— heredados por la tradición.

El principio de confianza

El primer instrumento se denomina «principio de confianza». Conforme a ello, cada sujeto que se desempeñe en la vida de relación —y, en particular, en el trabajo en equipo— puede actuar confiando en que los demás miembros de la sociedad —en su caso, los colegas del equipo— se comportarán de acuerdo con los deberes de cuidado cuyo cumplimiento cabe esperar según el contexto y el tipo de actividad. La expectativa idónea para excluir el deber de activarse para contrastar los efectos lesivos inmediatamente atribuibles a la conducta imprudente o descuidada del tercero (el prójimo relacional) es legítima en la medida en que la norma de diligencia ajena que constituye su objeto sea válida, reconocida y, por ende, esperable. 32 Por ello, deberes «relacionales», «secundarios» y «residuales» 33 de vigilancia y activación —cuyo fin de protección consiste en evitar eventos adversos debidos a conductas o decisiones ajenas— pueden surgir cuando dicha expectativa ya no se rige, dada la existencia de indicios o señales fácticas que permiten representarse que el tercero ha infringido, no está observando o, incluso, no cumplirá sus propios deberes, según se trate de relaciones sincrónicas o diacrónicas. En efecto, dicha representación permite considerar previsible un resultado lesivo como consecuencia de la interacción entre quien actúa y el tercero descuidado.

Este principio, aplicado en un primer momento al sector del tráfico vial (Kirschbaum, 1980: 20 y ss., 53 y ss.; Mantovani, 1997: 11 y ss.; Maraver Gómez, 2009: 37, 41 y ss.) para ser luego extendido a otros sectores 34 como el de la responsabilidad médica, 35 refleja en el plano típicamente relacional la idea liberal según la cual el ordenamiento jurídico permite hacer actividades abstractamente peligrosas (según el id quod plerumque accidit), pero dotadas de un reconocido valor social, hasta cuando las circunstancias concretas y particulares recomienden al «sujeto razonable y prudente» actuar de otra manera, o abstenerse del todo de cierta actuación, para no superar, de este modo, el umbral del «riesgo permitido». 36 Esto explica por qué el principio de confianza ha sido definido como la verdadera «piedra angular» (Forti, 1990: 282) de la tipicidad culposa en el derecho penal, reflejando —en el plano relacional— la necesidad de conjugar la libertad de acción con la protección de los bienes jurídicos involucrados en la denominada «sociedad de riesgo» (Romeo Casabona, 2005).

El principio de confianza «está estrechamente relacionado con la configuración de la sociedad como una sociedad con constantes contactos altamente anónimos y en la que impera el reparto de trabajo y funciones» ( Feijóo Sánchez, 2000 : 108). Por ello, de la misma forma que la categoría del «riesgo permitido», ello permite obrar una ponderación entre valor positivo de la actividad y protección social (de los bienes jurídicos relevantes) (Frisch, 2004: 73-77); aunque el riesgo (la incógnita) que se debe tener en cuenta, como hemos dicho, no tiene carácter naturalístico, sino normativo-relacional.

A este propósito, cabe destacar que la fundamentación del mismo principio rector en la categoría de la «autorresponsabilidad», defendida por algunos autores, no refleja en realidad una explicación dogmática alternativa a la señalada más arriba, sino más bien complementaria ( Contreras Chaimovich, 2018 a: 80-81; Maraver Gómez, 2009: 403; Romeo Casabona, 2011: 286). En efecto, ella permite destacar con claridad la razón típicamente relacional del criterio normativo en cuestión, es decir, su naturaleza de criterio de distribución de la responsabilidad en los supuestos en los que concurran diversos centros productores de un mismo resultado lesivo (Frisch, 2004: 185 y ss., 218 y ss., 234 y ss.; Stratenwerth, 1961 : 390 y ss.). 37 En efecto, aunque «en los supuestos en los que es preciso acudir al principio de confianza, el cuidado necesario en el tráfico no está relacionado con un riesgo natural», sino «con la idea de que en principio […] nadie debe ser hecho responsable de un hecho ajeno o de una decisión contraria a las normas de un tercero» ( Feijóo Sánchez, 2000 : 106), el mecanismo normativo en el que se concreta revela, en el fondo, aquella misma posibilidad de actuar asumiendo la presencia de constantes circunstanciales que permite llevar a cabo actividades intrínsecamente riesgosas, sin tener que preocuparse en forma constante de lo que en abstracto podría suceder.

En suma, el principio de confianza permite actuar bajo una presunción de normalidad estadística-normativa: estadística, pues se desprende del id quod plerumque accidit (lo que suele pasar, y por ello cabe esperar, generalmente); y normativa en cuanto idónea para generar una expectativa capaz, a su vez, de limitar el cuidado debido de cada uno en la vida de relación.

Sin embargo, como toda regla, ésta también tiene excepciones. En efecto, el principio de confianza tiene como límite fundamental que las circunstancias del caso particular dejen reconocer la existencia de señales o indicios concretos, claros y específicos, de que las pautas de cuidado «típicas» (es decir, predeterminadas por el derecho o por la experiencia sobre la base de generalizaciones, y objeto por ello de una expectativa provisoriamente legítima) no serán respetadas, por lo que sería objetivamente previsible un resultado lesivo o evento adverso como consecuencia de la interacción entre el agente en principio confiante y el agente reconociblemente descuidado. 38

La debida prudencia

El límite que se acaba de señalar nos lleva a identificar el segundo instrumento idóneo para abordar el problema de la responsabilidad del profesional ante el fenómeno de la automatización. En efecto, reconocer su existencia supone preguntarnos bajo qué condiciones se puede establecer (judicialmente y ante cada caso concreto) un deber que imponga hacerse cargo del error ajeno. El desafío consiste entonces en determinar cuándo, en concreto, podría darse la exigibilidad objetiva de dicho deber residual, asimismo «relacional» y «atípico» (no predeterminable), de hacer frente al error del centro decisional ajeno a quien actúa.

Al respecto —y en lo que sigue se concreta la segunda herramienta normativa—, la oportunidad de proteger la legítima confianza del facultativo aconseja adoptar criterios de juicio (e imputación de responsabilidad) que hagan residuales y marginales las hipótesis de responsabilidad por imprudencia debidas a errores que consistan en cumplimientos de guías estandarizadas o automatizadas. En efecto, como se ha oportunamente argumentado a propósito de su adopción al ámbito de la responsabilidad médica, la aplicación del principio de confianza puede quedar excluida solo «en casos excepcionales: cuando en el caso concreto se percibe un fallo grave de otro colega —infracción de cuidado escandalosa— o existan dudas sobre su cualificación y fiabilidad» (Jorge-Barreiro, 1990: 138).

Mutatis mutandis, el mismo criterio se puede aplicar a la relación entre el profesional (el ente moral) y la inteligencia artificial (el tercero, en este caso no imputable). 39 En este contexto, lo que puede definir el objeto de la confianza legítima del médico es una indicación automatizada. Pero dicha confianza, idónea para excluir la responsabilidad de quien actúe al amparo —o bien, como ejecutor— de ella, cedería ante la exigibilidad objetiva de un comportamiento distinto a lo indicado, dada la posibilidad concreta y calificada de reconocer que la adopción de dicha indicación llevaría a resultados erróneos y dañinos.

De esto modo, el modelo compromisorio diseñado más arriba y el paralelismo marcado entre la relación profesional con guideline, por un lado, y la relación profesional con sistema de inteligencia artificial, por otro —ambas reguladas por el «principio de confianza»—, nos pueden proporcionar nuevas bases argumentativas para afirmar la validez y utilidad de un criterio comparativo idóneo para determinar el nivel de exigibilidad objetiva subyacente a los deberes de cuidado «relacionales».

El punto de partida consiste en la observación de que existen circunstancias típicas en las que el facultativo puede contar con instrucciones, indicaciones o guías heterodeterminadas, pero también casos clínicos que suponen riesgos atípicos desde este punto de vista, en cuanto el facultativo no cuente con reglas predefinidas confiables y tenga por ello que adoptar estrategias diagnósticas o terapéuticas «atípicas», alejándose de las pautas predeterminadas o de la indicación automatizada, según el caso.

El criterio para determinar dicho nivel de exigibilidad vendría en causa precisamente cuando se planteen dichas situaciones atípicas —es decir, no solucionables de forma adecuada acudiendo a guías o indicaciones predeterminadas— y debería basarse en razones de equidad. En este sentido, la infracción de una expectativa de cuidado «atípica» —esto es, no predeterminada por lo usual, las leges artis, o la indicación automatizada, y determinada por el juez en el marco del proceso— podría ser considerada tan grave como para merecer la misma relevancia penal atribuida a la inobservancia de las normas modales predefinidas («típicas»), bajo la condición de que el cumplimiento de esa expectativa de cuidado ajustada al parámetro de la «persona sensata razonable» eiusdem condicionis et professionis pueda valorarse «objetivamente exigible» de la misma manera ( Perin, 2017 : 248, 253; 2018: 888-889).

En otras palabras, la responsabilidad penal por incumplimiento de expectativas de cuidado «atípicas» (dadas, en este contexto, por deberes «relacionales» que abarcan la actuación del modelo computacional) vendría a justificarse en cuanto el nivel de exigibilidad de su cumplimiento sea el mismo referible a una pauta típica, predeterminada y por ello ya disponible al agente. Esto, con el doble objetivo de: i) proteger la legítima confianza del facultativo en la indicación automatizada; pero ii) sin justificar o fomentar una tendencia a la aplicación acrítica de las pautas estandarizadas o de las indicaciones automatizadas por parte del mismo profesional.

Sin perjuicio de lo anterior, el objetivo de esta indicación criteriológica no consiste en proponer una definición de lege ferenda del concepto de «imprudencia grave» o «penalmente relevante». En cambio, se trata de indicar un criterio rector entregado idealmente a la prudente apreciación del juez, para la solución de cada caso concreto, que refleje en el plano del derecho la exigencia ética que el profesional no se convierta en una especie de ejecutor material de guías estandarizadas o modelos automatizados; garantizándole entonces aquella autonomía decisional cuya contrapartida en la vida de relación se encuentra en el «principio de responsabilidad» (Romeo Casabona, 2011: 49-51).

Además, la misma normológica subyacente al principio de confianza y sus límites permitiría configurar una responsabilidad del médico en hipótesis como las siguientes ( Perin, 2019 : 232): i) cuando el modelo de inteligencia artificial se utilice más allá del ámbito por el cual fue autorizado (off-label), pues la expectativa ya no sería válida; ii) o bien, cuando se confíe en ello pese a la existencia de serias dudas —que se hayan manifestado, por ejemplo, en el marco de la discusión académica y científica— acerca de la validez de los datos que basaron su aprendizaje. 40 En este caso, además, se podría plantear la cuestión de la responsabilidad alternativa o cumulativo del fabricante, del programador y de quien escogió los datos del primer aprendizaje. 41

Autonomía, prudencia, responsabilidad

La estandarización y la automatización de los procesos decisionales afectan a la autonomía del paciente, del profesional y de la persona en cuanto ente moral; y al pluralismo, no solo científico y terapéutico, sino también como pilar fundamental del Estado de derecho ( Perin, 2019 : 233).

Los problemas que nos plantea el fenómeno de la estandarización, además, no son diferentes de los levantados por la tendencia general en materia de evaluación de la producción científica (de donde las guidelines y los propios sistemas automatizados proceden) que consiste en valorar no solo, o no tanto, la calidad intrínseca de un estudio, sino la categorización o indexación formal de su contenedor.

Pero la forma no siempre es garantía de calidad. Por ello, ante la imposición del formalismo valorativo y la estandarización, hace falta reafirmar la necesidad de una valoración autónoma del profesional acerca de la fiabilidad y de la calidad intrínseca del contenido científico o de la indicación automatizada que él o ella deberá adoptar.

El desafío consiste en saber valorar las ventajas objetivas de la estandarización (Di Landro, 2012: 177; Frakes, 2013 ; Montanari Vergallo y otros, 2017: 16-23; Rogers y Hutchison , 2015: 8 y ss.; Ventola, 2008 ) y la automatización ( Friedman, 2009 ; Taddeo y Floridi ,2018 : 751) de los procesos decisionales y de gestión del riesgo, 42 también en términos de seguridad jurídica, respondiendo a legítimas exigencias de certeza y legalidad; pero reconociendo que, ante ciertos contextos y situaciones particulares, el profesional debe ser capaz de valorar de forma autónoma las circunstancias concretas, actuando de forma éticamente fundada y teleológicamente coherente.

En esto consiste la esencia de la prudencia, entendida como «sabiduría práctica» (Celano, 2016: 30-39; Kinsella y Pitman, 2012: 2-10; Sánchez-Tapia, 2015 : 58). Una idea que, llevada desde el mundo de la ética al plano del derecho —en el que, sin embargo, el principio de subsidiariedad penal juega indudablemente un papel fundamental—, debería inspirar también a nuestra noción de diligencia, entendida entonces como «capacidad de cumplir con las praxis, cuando esto resulte pertinente y necesario, pero también de alejarse de los esquemas y las expectativas generales, actuando de forma adecuada y sobre la base del principio de no maleficencia cuando dicha adecuación, aunque «atípica», y por ello nueva y particular, sea exigible a cualquiera» ( Perin, 2019 : 233-234).

El afán de control y dominio que subyace a todo proceso de uniformación y normalización ( Grossman, 2018 : 447-448) encuentra entonces un obstáculo insuperable no solo en los límites intrínsecos de cualquier generalización normativa como tal, 43 sino también en la defensa del pluralismo valorativo y terapéutico, 44 de la autonomía decisional del médico y del paciente, y en la ética de la responsabilidad. 45

Solo una confianza relativa, atenta, cuidadosa, sensible (prudente) en la adecuación del protocolo y el sistema automatizado (del centro decisional externo a quien actúa) deja un espacio razonable a la valoración y la corrección del ser humano. De otra forma, si la relación entre el sistema y el humano fuera regulada por un principio de automatización estricta (sin márgenes para alejarse de ella y actuar de forma alternativa y prudente), se acabaría justificando la norma del amparo absoluto de cualquier actuación indicada por un modelo estandarizado, cuya ratio decidendi resultaría a menudo desconocida no solo a quien lo ejecuta y a quien lo concibió, sino también a quien podrá sufrir las consecuencias de su adopción. 46 Se abriría entonces un escenario imponderable, en el cual el «imperativo tecnológico» eliminaría cualquier margen de autonomía en provecho de un determinismo tecnocrático que, suprimiendo cualquier espacio de libertad y responsabilidad individual (De Siqueira, 2001: 280), asumiría rasgos inevitablemente totalitarios. 47

Agradecimiento

El texto ha sido elaborado en el marco del proyecto Fondecyt de Iniciación 11170924, del que el autor es el investigador responsable. Una versión preliminar de la investigación fue presentada en la Universidad de Buenos Aires, Argentina, en el marco del Cuarto Seminario Internacional de Bioderecho, organizado por la Red Internacional de Bioderecho y el Observatorio de Salud de la Universidad de Buenos Aires. También se presentó en Valdivia, en la Facultad de Derecho de la Universidad Austral de Chile. Las conclusiones del artículo han sido discutidas en Bilbao, España, en el marco del Vigésimo Sexto Congreso Internacional sobre Derecho y Genoma Humano y el Quinto Seminario Internacional de Bioderecho, ambos eventos organizados por el Grupo de Investigación «Cátedra de Derecho y Genoma Humano» de la Universidad del País Vasco/EHU y la Red Internacional de Bioderecho. El autor agradece a todos los asistentes que con sus comentarios, preguntas y sugerencias permitieron mejorar el resultado de esta investigación. Un agradecimiento también a Ignacio Ackermann, profesor ayudante de cátedra, por su apoyo en la revisión del trabajo.

Referencias bibliográficas

Amoroso, D., Tamburrini, G.(2019). "I sistemi robotici ad autonomia crescente tra etica e diritto: quale ruolo per il controllo umano?". Rivista di Biodiritto. (1), 33-51. Recuperado de http://bit.ly/31KjzBCLinks ]

Beggio, G.(2019). "Autonomia decisionale nella quotidianità clinica". Rivista di Biodiritto. (1), 266-261. Recuperado de http://bit.ly/31B0IbYLinks ]

Burgstaller, M., (1974). Das Fahrlässigkeitsdelikt im Strafrecht. Unter besonderer Berücksichtigung der Praxis in Verkehrssachen . Viena: Manz [ Links ]

Cabitza, F., Ciucci, D., Rasoini , R. (2019). A giant with feet of clay: On the validity of the data that feed machine learning in medicine . En Cabitza, F., Batini, C., Magni, M (eds.);Organizing for the digital world. (121-136). Cham: Springer Recuperado de http://doi.org/10.1007/978-3-319-90503-7_10Links ]

Cancio Meliá, M., (1998). Conducta de la víctima e imputación objetiva en Derecho penal . Barcelona, España: Bosch [ Links ]

Casonato, C., (2012). Introduzione al biodiritto . Turín, Italia: Giappichelli [ Links ]

Celano, A., (2016). Aristotle’s ethics and medieval philosophy: Moral goodness and practical Wisdom . Cambridge: Cambridge University Press [ Links ]

Ching, T., Himmelstein, D., Beaulieu-Jones, B., Kalinin, A., Do, B.(2018). "Opportunities and obstacles for deep learning in biology and medicine". Journal of the Royal Society Interface. 15 (141), 1-47. Recuperado de http://doi.org/10.1098/rsif.2017.0387Links ]

Contreras Chaimovich, L., (2018). Productos defectuosos y derecho penal: El principio de confianza en la responsabilidad penal por el producto . Santiago, Chile: RIL [ Links ]

Contreras Chaimovich, L.(2018). "Reglas extrajurídicas y creaciones de riesgos toleradas o desaprobadas en los delitos culposos de homicidio y lesiones". Política Criminal. 13 (25), 387-444. Recuperado de http://doi.org/10.4067/S0718-33992018000100387Links ]

Contreras Chaimovich, L.(2019). "El principio de confianza como criterio delimitador de la responsabilidad penal de los médicos". Acta Bioethica. 25 (1), 35-43. Recuperado de http://bit.ly/31FomnXLinks ]

Corcoy Bidasolo, M., (1989). El delito imprudente: Criterios de imputación del resultado . Barcelona, España: PPU [ Links ]

Cornacchia, L., (2004). Concorso di colpe e principio di responsabilità per fatto proprio . Turín, Italia: Giappichelli [ Links ]

Cupelli, C.(2017). "Lo statuto penale della colpa medica e le incerte novità della legge Gelli-Bianco". Diritto Penale Contemporaneo. (4), 200-216. Recuperado de http://bit.ly/31ETcNfLinks ]

De Miguel Beriain, I.(2018). "Does the use of risk assessments in sentences respect the right to due process? A critical analysis of the Wisconsin v. Loomis ruling". Law, Probability and Risk. 17 (1), 45-53. Recuperado de http://doi.org/10.1093/lpr/mgy001Links ]

De Siqueira, J.(2011). "El principio de responsabilidad de Hans Jonas". Acta Bioethica. 7 (2), 277-285. Recuperado de http://doi.org/10.4067/S1726-569X2001000200009Links ]

Di Landro, A., (2012). Dalle linee guida e dai protocolli all’individualizzazione della colpa penale nel settore sanitario: Misura oggettiva e soggettiva della malpractice . Turín, Italia: Giappichelli [ Links ]

Di Landro, A.(2018). "Colpa medica, linee guida e buone pratiche: Spunti di riflessione comparatistici. Dalle Sez. Un. «Mariotti» alle esperienze angloamericane". Archivio Penale. (2), 1-21. Recuperado de http://bit.ly/31JWQW3Links ]

Donovan, G.(1956). "Automation in medicine". British Medical Journal. 2 (4983), 44-45. Recuperado de http://bit.ly/31KLotiLinks ]

European Group on Ethics in Science and New Technologies, ., (2018). Artificial intelligence, robotics and «autonomous» systems . Bruselas: Publications Office of the European Union Recuperado de https://bit.ly/2oWuk1WLinks ]

Feijóo Sánchez, B.(2000). "El principio de confianza como criterio normativo de imputación en el derecho penal: Fundamento y consecuencias dogmáticas". Derecho Penal y Criminología. 21 (69), 93-138. Recuperado de http://bit.ly/31I1TGKLinks ]

Feijóo Sánchez, B., (2001). Resultado lesivo e imprudencia: Estudio sobre los límites de la responsabilidad penal por imprudencia y el criterio del «fin de protección de la norma de cuidado» . Barcelona, España: Bosch [ Links ]

Fernández Cruz, J.(2002). "El delito imprudente: La determinación de la diligencia debida en el seno de las organizaciones". Revista de Derecho . (13), 101-121. Recuperado de http://bit.ly/31TchLYLinks ]

Ferrante di Ruffano, L., Takwoingi, Y., Dinnes, J., Chuchu, N., Bayliss, S.(2018). "Computer-assisted diagnosis techniques (dermoscopy and spectroscopy-based) for diagnosing skin cancer in adults". Cochrane Database of Systematic Reviews. (12), 1-343. Recuperado de http://doi.org/10.1002/14651858.CD013186Links ]

Finder, J.(2019). "What the near future of artificial intelligence could be". Philosophy & Technology. 32 (1), 1-15. Recuperado de http://doi.org/10.1007/s13347-019-00345-yLinks ]

Forti, G., (1990). Colpa ed evento nel diritto penale . Milán, Italia: Giuffrè [ Links ]

Frakes, M.(2013). "The impact of medical liability standards on regional variations in physician behavior: Evidence from the adoption of national-standard rules". The American Economic Review. 103 (1), 257-276. Recuperado de http://doi.org/10.1257/aer.103.1.257Links ]

Freeman, K.(2016). "Algorithmic injustice: How the Wisconsin Supreme Court failed to protect due process rights in State v. Loomis". The North Carolina Journal of Law & Technology. (18), 75-106. Recuperado de http://bit.ly/31LNCsmLinks ]

Friedman, C.(2009). "A «fundamental theorem» of biomedical informatics". Journal of the American Medical Informatics Association. 16 (2), 169-170. Recuperado de http://doi.org/10.1197/jamia.M3092Links ]

Frisch, W., (2004). Comportamiento típico e imputación del resultado . Madrid, España: Marcial Pons [ Links ]

Galimberti, U.(2009). "Man in the age of technology". Journal of Analytical Psychology. 54 (1), 3-17. Recuperado de http://doi.org/10.1111/j.1468-5922.2008.01753.xLinks ]

Glass, G.(1976). "Primary, secondary and metanalysis of research". Educational Research. (5), 3-8. Recuperado de http://doi.org/10.3102/0013189X005010003Links ]

González-Ferrer, A., Valcárcel, M., Cuesta, M., Cháfer, J., Runkle, I.(2017). "Development of a computer-interpretable clinical guideline model for decision support in the differential diagnosis of hyponatremia". International Journal of Medical Informatics. (103), 55-64. Recuperado de http://doi.org/10.1016/j.ijmedinf.2017.04.014Links ]

Greco, M.(2016). "What is the DSM? Diagnostic manual, cultural icon, political battleground: an overview with suggestions for a critical research agenda". Psychology & Sexuality. 7 (1), 6-22. Recuperado de http://doi.org/10.1080/19419899.2015.1024470Links ]

Grossman, J.(2018). "Standardization (standardisation)". Critical Inquiry. 44 (3), 447-478. Recuperado de http://doi.org/10.1086/696912Links ]

Haskel, M.(2007). "A proposal for addressing the effects of hindsight and positive outcome biases in medical malpractice cases". Tort Trial & Insurance Practice Law Journal. 42 (3), 895-940. Recuperado de http://bit.ly/2N2y6oMLinks ]

Jorge-Barreiro, A., (1990). La imprudencia punible en la actividad médico-quirúrgica . Madrid, España: Tecnos [ Links ]

Kinsella, E., Pitman, A., (2012). Phronesis as professional knowledge: Practical wisdom in the professions . Róterdam: Sense Publishers [ Links ]

Kirschbaum, K., (1980). Der Vertrauensschutz im deutschen Straßenverkehrsrecht . Berlín, Alemania: Duncker & Humblot [ Links ]

LeCun, Y., Bengio, Y., Hinton, G.(2015). "Deep learning". Nature. (521), 436-444. Recuperado de http://doi.org/10.1038/nature14539Links ]

Liang, M.(1992). "From America: Cookbook medicine or food for thought. Practice guideline development in the USA". Annals of Rheumatic Diseases. (51), 1257-1258. Recuperado de https://bit.ly/2KG99h0Links ]

Maletta, S.(1999). "Il totalitarismo come forma di pensiero". La Nuova Europa. (6), 78-86. Recuperado de http://bit.ly/2WVUIXULinks ]

Mantovani, M., (1997). Il principio di affidamento nella teoria del reato colposo . Milán, Italia: Giuffrè [ Links ]

Mañalich, J.(2015). "La imprudencia como estructura de imputación". Revista de Ciencias Penales. 42 (3), 13-36. Recuperado de http://bit.ly/2MZSp6uLinks ]

Maraver Gómez, M., (2009). El principio de confianza en derecho penal: Un estudio sobre la aplicación del principio de autorresponsabilidad en la teoría de la imputación objetiva . : Civitas [ Links ]

Mello, M.(2001). "Of swords and shields: The role of clinical practice guidelines in medical malpractice litigation". University Pennsylvania Law Review. 149 (3), 645-710. Recuperado de http://doi.org/10.2307/3312867.Links ]

Menden, M., Iorio, F., Garnett, M., McDermott, U., Benes, C.(2013). "Machine Learning Prediction of Cancer Cell Sensitivity to Drugs Based on Genomic and Chemical Properties". Plos One. 8 (4), 1-7. Recuperado de http://doi.org/10.1371/journal.pone.0061318Links ]

Mirsky, Y., Mahler, T., Shelef, I., Elovici, Y. (2019). CT-GAN: Malicious tampering of 3D medical imagery using deep learning . Recuperado de https://arxiv.org/abs/1901.03597Links ]

Montanari Vergallo, G., Rinaldi, R., Bersani, G., Marinelli, E.(2017). "Medico-legal notes for a new set of standards in the assessment of penal liability in psychiatry". Rivista di Psichiatria. 52 (1), 16-23. Recuperado de http://doi.org/10.1708/2631.27050Links ]

Oeberst, A., Goeckenjan, I.(2016). "When being wise after the event results in injustice: Evidence for hindsight bias in judges’ negligence assessments". Psychology, Public Policy, and Law. 22 (3), 271-279. Recuperado de http://doi.org/10.1037/law0000091Links ]

Ojeda, D., Wurth, J.(2014). "¿Qué es un metaanálisis?". Revista Chilena de Anestesia. (43), 343-350. Recuperado de http://bit.ly/2N9zs0WLinks ]

Perin, A.(2014). "La crisi del «modello nomologico» fra spiegazione e prevedibilità dell’evento nel diritto penale: Note introduttive e questioni preliminari sul fatto tipico colposo". Rivista Italiana di Diritto e Procedura Penale. 57 (3), 1371-1409. Recuperado de http://bit.ly/2MYwrABLinks ]

Perin, A.(2017). "La condotta lesiva colposa: Una prospettiva ricostruttiva". Política Criminal. 12 (23), 207-266. Recuperado de http://doi.org/10.4067/S0718-33992017000100007.Links ]

Perin, A.(2018). "La redefinición de la culpa (imprudencia) penal médica ante el fenómeno de la medicina defensiva: Bases desde una perspectiva comparada". Política Criminal. 13 (26), 858-903. Recuperado de http://doi.org/10.4067/S0718-33992018000200858Links ]

Perin, A.(2019). "Standardizzazione, automazione e responsabilità medica. Dalle recenti riforme alla definizione di un modello d’imputazione solidaristico e liberale". Rivista di Biodiritto. (1), 207-235. Recuperado de https://bit.ly/31SiojBLinks ]

Rogers, W., Hutchison , K. (sin fecha). Evidence-based medicine in theory and practice: Epistemological and normative issues . En Schramme, T., Edwards, S (eds.);Handbook of the Philosophy of Medicine. (1-18). Dordrecht: Springer Recuperado de http://doi.org/10.1007/978-94-017-8706-2_40-1Links ]

Romeo Casabona, C., (2005). Conducta peligrosa e imprudencia en la sociedad de riesgo . Granada, España: Comares [ Links ]

Romeo Casabona, C., (2011). El médico y el derecho penal: La actividad curativa. Licitud y responsabilidad penal . Santa Fe: Rubinzal-Culzoni [ Links ]

Rosoff, A.(2001). "Evidence-based medicine and the law: The courts confront clinical practice guidelines". Journal of Health Politics, Policy & Law. 26 (2), 327-368. Recuperado de http://doi.org/10.1215/03616878-26-2-327Links ]

Rueda Martín, M.(2009). "La concreción del deber objetivo de cuidado en el desarrollo de la actividad médico-quirúrgica curativa". InDret Penal. (4), 1-58. Recuperado de http://bit.ly/2IUXF5RLinks ]

Sackett, D., Rosenberg, W., Muir Gray, J., Haynes , R., Richardson, W.(1996). "Evidence based medicine: what it is and what it isn’t (it’s about integrating individual clinical expertise and the best external evidence)". British Medical Journal. 321 (7023), 71-72. Recuperado de http://doi.org/10.1136/bmj.312.7023.71Links ]

Samanta, A., Mello, M., Foster, C., Tingle, J., Samanta, J.(2006). "The role of clinical guidelines in medical negligence litigation: A shift from the Bolam standard?". Medical Law Review. 14 (3), 321-366. Recuperado de http://doi.org/10.1093/medlaw/fwl010Links ]

Sánchez-Tapia, M.(2015). "La prudencia como sabiduría práctica bajo la perspectiva de Paul Ricœur". La Colmena: Revista de la Universidad Autónoma del Estado de México. (85), 55-67. Recuperado de http://bit.ly/2x8bGI5Links ]

Saygili, A., Albayrak, S.(2018). "An efficient and fast computer-aided method for fully automated diagnosis of meniscal tears from magnetic resonance images". Artificial Intelligence in Medicine. (97), 118-130. Recuperado de http://doi.org/10.1016/j.artmed.2018.11.008Links ]

Schauer, F., (2006). Profiles, probabilities, and stereotypes . Cambridge: Harvard University Press [ Links ]

Schünemann, B.(1975). "Moderne Tendenzen in der Dogmatik der Fahrlässigkeits-und Gefährdungsdelikte". Juristische Arbeitsblätter (Zeitschrift). . [ Links ]

Seitinger, A., Rappelsberg, A., Leitich, H., Binder, M., Adlassnig, K.(2018). "Executable medical guidelines with Arden Syntax: Applications in dermatology and obstetrics". Artificial Intelligence in Medicine. (92), 71-81. Recuperado de http://doi.org/10.1016/j.artmed.2016.08.003Links ]

Selbst, ., Julia, J.(2017). "Meaningful information and the right to explanation". International Data Privacy Law. 7 (4), 233-242. Recuperado de http://doi.org/10.1093/idpl/ipx022Links ]

Stratenwerth, G. (1961). Arbeitsteilung und ärztliche Sorgfaltsplicht . En Bockelmann, P., Gallas, W (eds.);Festschrift für Eberhard Schmidt zum 70. GeburtstagK. (383-400). Göttingen: Vandenhoeck & Ruprecht [ Links ]

Suk, H. (2017). An introduction to neural networks and deep learning . En Zhous, S., Greenspan, H., Shen, D (eds.);Deep Learning for Medical Image Analysis. Londres: Academic Press [ Links ]

Taddeo, M., Floridi, L.(2018). "How AI can be a force for good: An ethical framework will help to harness the potential of AI while keeping humans in control". Science. 361 (6404), 751-752. Recuperado de http://doi.org/10.1126/science.aat5991Links ]

Tuzet, G., (2006). La prima inferenza: L’abduzione di C. S. Peirce fra scienza e diritto . Turín, Italia: Giappichelli [ Links ]

Van Tassel, K.(2006). "Hospital peer review standards and due process: Moving from Tort Doctrine toward contract principle based on clinical practice guidelines". Seton Hall Law Review. 36 (4), 1179-1256. Recuperado de http://bit.ly/2x5s5gnLinks ]

Vargas Pinto, T., (2017). Responsabilidad penal por imprudencia médica: Un examen práctico de los principales problemas para la determinación del cuidado debido . Santiago, Chile: Der [ Links ]

Ventola, C.(2008). "Challenges in evaluating and standardizing medical devices in health care facilities". Pharmacy and Therapeutics. 33 (6), 348-359. Recuperado de http://bit.ly/2xfMyPPLinks ]

Watson, D., Krutzinna, J., Bruce, I., Griffiths, C., McInnes, I.(2019). "Clinical applications of machine learning algorithms: Beyond the black box". The BMJ. (364). Recuperado de http://doi.org/10.1136/bmj.l886Links ]

Welzel, H., (1961). Fahrlässigkeit und Verkehrsdelikte: Zur Dogmatik der fahrlässigen Delikte . Karlsruhe: Müller [ Links ]

Woolf, S.(1990). "Practice guidelines: A new reality in medicine: 1. Recent developments". Archives of Internal Medicine. 150 (9), 1811-1818. Recuperado de http://bit.ly/2x5XcIBLinks ]

Wulff, A., Haarbrandt, B., Tute, E., Marschollek, M., Beerbaum, P., Jack, T.(2018). "An interoperable clinical decision-support system for early detection of SIRS in pediatric intensive care using openEHR". Artificial Intelligence in Medicine. (89), 10-23. Recuperado de http://doi.org/10.1016/j.artmed.2018.04.012Links ]

Zaffalon, M., Wesnes, K., Petrini, O.(2003). "Reliable diagnoses of dementia by the naive credal classifier inferred from incomplete cognitive data". Artificial Intelligence in Medicine. 29 (1-2), 61-79. Recuperado de http://doi.org/10.1016/S0933-3657(03)00046-0Links ]

Zitnik, M., Agrawal, M., Leskovec, J.(2018). "Modeling polypharmacy side effects with graph convolutional networks". Bioinformatics. 34 (13), 457-466. Recuperado de http://doi.org/10.1093/bioinformatics/bty294Links ]

1Como la denominada National Guideline Clearinghouse (NGC), actualizada hasta julio de 2018 en el sitio web de Agency for Healthcare research and Quality, disponible en http://bit.ly/31Admbc.

2Por ejemplo, en Australia (National Health and Medical Research Council, disponible en http://bit.ly/31EBvxz); España (Guíasalud.es, disponible en https://bit.ly/2XlUyKg); Francia (Haute Autorité de Santé, disponible en http://bit.ly/31LUfLF) y Reino Unido (National Institute for Health and Care Excellence, disponible en http://bit.ly/31JSgqQ; Guidelines in Practice, disponible en https://www.guidelinesinpractice.co.uk/).

3Ver, por ejemplo, el Cochrane Database of Systematic Reviews, disponible en http://bit.ly/31JSs9y. Sobre la importancia creciente en la toma de decisiones y conductas en medicina clínica de los metaanálisis para los profesionales médicos, véase Ojeda y Wurth (2014: 343-50), quienes no obstante señalan que, «pese a que la información entregada por esta herramienta epidemiológica parece ser más precisa y consistente, ésta debe ser complementaria al juicio clínico en el proceso de toma de decisiones médicas»; asimismo, los metaanálisis «tienen sus limitaciones y, como todo trabajo de investigación, deben ser leídos críticamente». Más detalles sobre dichas limitaciones en la citada publicación.

4La cuestión de la heterointegración (o concreción) normativa del «cuidado debido» a través de fuentes extrajurídicas y parámetros técnicos, como protocolos y guidelines, sigue siendo objeto de debate en la literatura jurídica penal. Entre otras contribuciones, véase Contreras Chaimovich (2018b); Di Landro (2012); Frakes (2013); Perin (2014) y Vargas Pinto (2017).

5A propósito, véase la más amplia discusión desarrollada sobre el particular en Perin (2014), y las referencias allí indicadas.

6Un tanto imperialista y bastante controvertida, sobre todo en algunos sectores de la medicina, como por ejemplo la psiquiatría. Véanse, en argumento, Greco (2016) y Montanari Vergallo y otros (2017).

7Por ejemplo, a un neurocirujano o un anestesista «sensato y prudente», ubicado idealmente en las mismas condiciones y circunstancias en las que actuó el acusado.

8El parámetro normativo al que acude el juez a la hora de concretar el contenido normativo del cuidado debido, conforme al modelo «deóntico-objetivo» (apartado a anterior).

9Sobre el concepto de norma de cuidado en este sentido de «atípica», véase Perin (2017: 223).

10En el caso Lowry con Hendry Mayo Newhall Memorial Hospital, por ejemplo, la Corte de Apelaciones de California resuelve en sentido favorable al imputado, juzgándole no responsable pese al incumplimiento de guidelines (Di Landro, 2018: 9; Samanta y otros, 2006: 339).

11El mero incumplimiento de una norma de cuidado no asegura la imputabilidad del mismo a la responsabilidad de su autor material también por otra razón: podrían no cumplirse dos condiciones de imputación normativa requeridas para la existencia del denominado «nexo de riesgo». En primer lugar, el resultado acaecido podría no haber realizado el riesgo no permitido generado por la conducta imprudente; en otros términos, el resultado acaecido podría no pertenecer al ámbito de protección de la norma de cuidado infringida. Véase, entre otros y para más referencias, Corcoy Bidasolo (1989: 423 y ss.); Feijóo Sánchez (2001, 323 y ss.); Fernández Cruz (2002: 107) y Forti (1990: 418 y ss., 659 y ss.). En segundo lugar, según defienden algunos autores, podría no cumplirse el requisito ex post de la evitabilidad del resultado (Mañalich, 2015: 26).

12Véase, por ejemplo, el «Kentucky Revised Statutes», capítulo 342.035, numeral 8 letra c), disponible en http://bit.ly/2KDKtG3 (Di Landro, 2018, 4; Van Tassel, 2006: 1254, nota 315).

13En el derecho estadounidense, uno de los antecedentes más paradigmáticos en este sentido es el caso Bragdon con Abbot, 584 U.S. 624, de 1998 (Di Landro, 2018: 8; Finder, 2000: 100).

14Críticamente, a propósito de la negligence per se en hipótesis de incumplimiento de guidelines, véase también Finder (2000: 102 y ss.).

15Como ha intentado hacer a través de dos reformas el legislador italiano (Perin, 2018: 870 y ss.).

16El concepto de inteligencia artificial ha sido definido de muchas maneras (Floridi, 2019: 2-3). No obstante, cabe aquí considerar la definición propuesta por el High-Level Expert Group on Artificial Intelligence: «La expresión inteligencia artificial (AI) se refiere a los sistemas diseñados por seres humanos que, dado un objetivo complejo, actúan en el mundo físico o digital percibiendo su entorno, interpretando los datos recopilados —estructurados o no estructurados—, razonando sobre el conocimiento derivado de estos datos y actuando de la mejor forma (según parámetros predefinidos) para lograr dicho objetivo. Los sistemas de inteligencia artificial también pueden diseñarse para que aprendan a adaptar su comportamiento, analizando cómo el contexto se ve afectado por sus acciones anteriores. […] Como disciplina científica, la IA incluye varios enfoques y técnicas, como el machine learning (del que deep learning y reinforcement learning son ejemplos específicos), el machine reasoning (que incluye la planificación, programación, representación y elaboración del conocimiento, su búsqueda y optimización), y la robótica». High-Level Expert Group on Artificial Intelligence, «Draft ethics guidelines for trustworthy AI», Comisión Europea, 18 de diciembre de 2018, traducción propia. Disponible en http://bit.ly/31KBisK.

17Esto se puede afirmar en general, no solo respecto de la medicina. En efecto: «Cuanto más estandarizada sea la realización de un trabajo determinado, la automatización podrá más fácilmente hacerse cargo de tareas humanas […] Cualquier cosa que se pueda estandarizar, desde el protocolo de emergencia hasta la preparación de equipamientos, resulta ideal para la automatización»). Edgar Wilson, «Standardization is the mother of automation», AmericanEHR Blog, 31 de marzo de 2017, disponible en http://bit.ly/2xc5LBz.

18Esto explica por qué la automación permite y favorece el desarrollo de la medicina personalizada y de precisión (Watson y otros, 2019: 1).

19Entre los estudios más recientes, véanse, por ejemplo: González-Ferrer y otros (2017), Saygili y Albayrak (2018) y Wulff y otros (2018); y el metaanálisis de Ferrante di Ruffano y otros (2018). Otras referencias en Watson y otros (2019: 1).

20Por ejemplo, para la asignación de pacientes a ensayos clínicos, véase Ching y otros (2018: 21 y ss.).

21Entre otros estudios significativos, Menden y otros (2013). Otras referencias en Watson y otros (2019: 1-2).

22Véanse las variantes casuísticas más detalladas propuestas por Arturo González-Ferrer (2017). «Presente y futuro de la inteligencia artificial en medicina», Planeta Chatbot, 14 de agosto de 2017, disponible en http://bit.ly/31KnIFu, y el ejemplo indicado por Watson y otros (2019: 2).

23En efecto, «los algoritmos de machine learning […] tienden a cometer errores que los humanos tienen menos probabilidades de cometer, por de pronto, en la clasificación errónea de supuestos o clases de elementos discordantes o no homogéneos […]. Puede ser imposible asegurar que un modelo no sea susceptible a eventos adversos, pero el trabajo en esta área continúa» (Ching y otros, 2018: 33).

24A continuación, se rediscuten y actualizan las razones indicadas en Perin (2019: 230).

25« ¿Cómo es posible entrenar un sistema de inteligencia artificial para ser mejor que un humano, si los datos que se le proporciona son de la misma baja calidad que los generados por humanos?» (Hugh Harvey, «Separating the art of medicine from artificial intelligence», Towards Data Science, 21 de diciembre de 2017, disponible en http://bit.ly/2MXmymM). A propósito, véase también Cabitza, Ciucci y Rasoini (2019) y Zaffalon, Wesnes y Petrini (2003).

26«Si los médicos no comprenden cómo el algoritmo hizo un diagnóstico, ¿por qué los pacientes deberían confiar en el tratamiento recomendado? ¿Es compatible el consentimiento informado con la falta de comprensión sobre cómo el modelo llegó a su conclusión? […] Este problema se ha vuelto especialmente apremiante tras la aprobación del último Reglamento General de Protección de Datos (GDPR) de la Unión Europea, que, según defienden algunos, otorgaría a los ciudadanos un «derecho a la explicación» (Watson y otros, 2019: 1-2, traducción propia). Defienden la existencia de dicho derecho, por ejemplo, Selbst y Powles (2017: 235 y ss.). Véase la interpretación autentica de los artículos 13, 14, 22.1 y 22.3 por el Article 29 Working Party, «Guidelines on automated individual decision-making and profiling for the purposes of Regulation 2016/679», Comisión Europea, 22 de agosto de 2018, p. 9, disponible en http://bit.ly/31Fz79C). Este reconocimiento, en nuestra opinión, podría llevar a prohibir la adopción de decisiones automatizadas que no puedan ser explicadas o bien revertidas dando suficientes razones, esto es, excluir la adopción de machine learning que sean black boxes.

27Como se muestra en Mirsky y otros (2019).

28«La medicina es un arte que nunca podrá ser cuantificada o regulada por completo. Siempre habrá un caso atípico, […] siempre habrá elementos de ambigüedad o incertidumbre. Por esta razón, siempre necesitaremos algún tipo de supervisión humana» (Hugh Harvey, «Why AI will not replace radiologists», Towards Data Science, 24 de enero de 2018, traducción propia, disponible en http://bit.ly/2N9rrZU). Así, ya decía Donovan (1956: 44, traducción propia): «No hay necesidad de ir a los extremos en la automatización aplicada a la medicina. La medicina, por su propia naturaleza, es una combinación de arte y ciencia».

29Este último aspecto, en particular, confirma que el problema de la adecuación extrínseca del modelo utilizado se sigue planteando, como para la utilización de guidelines. Los sistemas interpretan los casos concretos sobre la base de sus cogniciones, detectando y reconduciéndolos a categorías típicas o modelos explicativos (Watson y otros, 2019: 1), pero esto no significa que sean capaces de reconocer su propia incompetencia cuando dicha reconducción no sea posible.

30Así, por ejemplo, Ching y otros (2018: 12, 22, 25 y ss.), quienes muestran, sin embargo, cómo estudios más recientes han intentado implementar sistemas más interpretables y por ello más fiables. En el mismo sentido, Ferrante di Ruffano y otros (2018: 2) y Arturo González-Ferrer, «Presente y futuro».

31Ante el error ejecutivo del producto tecnológico, se plantea por un lado la eventual responsabilidad civil del fabricante (véase el proyecto del Parlamento Europeo, disponible en http://bit.ly/31HOOx1) y, por otro, la oportunidad de considerar la propia inteligencia artificial como posible «centro de imputación» (Ana Paula Rumualdo, «¿Quién se hará cargo de los errores de nuestros robots?», Letras Libres, 26 de abril de 2017, disponible en http://bit.ly/2Zvw3Le; Janosch Delcker, «Europe divided over robot «personhood»», Politico, 11 de abril de 2018, disponible en https://politi.co/31FGtdg). En sentido contrario, sin embargo, el parecer del European Group on Ethics in Science and New Technologies (2018: 9-10).

32Se trata de una generalización basada en la pertenencia del sujeto con el que se interactúa a un determinado grupo social o profesional. Sobre la legitimidad de la toma de decisión basada en la confianza (relativa) en «perfiles» y «generalizaciones» estadísticas no universales, véase Schauer (2006: 19 y ss.).

33Sobre el carácter «secundario» de los deberes «relacionales» que surgen cuando ya no se dan las condiciones para confiar en la adecuación de la conducta ajena, véase Fernández Cruz (2002) y Perin (2017: 227). Para una clasificación de dichos deberes, véase Cornacchia (2004: 518-519).

34Como, por ejemplo, la responsabilidad penal por productos defectuosos (Contreras Chaimovich, 2018a: 44, 91).

35Sobre el principio de confianza y su aplicación al sector de la responsabilidad médica, véase, entre otros, Contreras Chaimovich (2019), Fernández Cruz (2002: 115 y ss.), Maraver Gómez (2009: 99), Romeo Casabona (2011: 277-279) y Vargas Pinto (2017: 43 y ss.).

36«El principio se basa en la exigencia de asegurar a los individuos ciertos márgenes de libertad de acción, que de otro modo quedaría negada por la necesidad de tener en cuenta todo lo que fuera posible prever» (Forti, 1990: 273, traducción propia). Sobre el carácter liberal del principio de confianza (más allá de sus orígenes históricos), véase Maraver Gómez (2009: 247 y ss.). La reconducción del Vertrauensgrundsatz al genus del erlaubtes Risiko ha sido defendida por la autorizada doctrina (Burgstaller, 1974: 59; Cancio Meliá, 1998: 326; Corcoy Bidasolo, 1989: 171, 333; Romeo Casabona, 2011: 285; Schünemann, 1975: 719; Welzel, 1961: 16-19).

37Véanse, además, las construcciones normativistas de Cornacchia (2004: 85 y ss., 485 y ss.) y Maraver Gómez (2009: 146 y ss., 170 y ss., spec. 184 y ss.).

38Sobre este límite del principio de confianza, véase Cancio Meliá (1998: 324 y ss.), Contreras Chaimovich (2019: 38, 42), Corcoy Bidasolo (1989: 333), Cornacchia (2004: 489), Feijóo Sánchez (2000: 119 y ss.); Fernández Cruz (2002: 115), Forti (1990: 285 y ss.), Mantovani (1997: 51, 155), Maraver Gómez (2009: 404-405) y Perin (2017: 226 y ss.). Cfr. las reflexiones de Schauer (2006: 30-31) a propósito del argumento del «extranjero» de Platón según el cual, «cuando existe la oportunidad de evitar el error causado por la aplicación de la regla universal a un caso particular, sería «absurdo», «malvado», una «desgracia» y una «injusticia» no evitar el error» (traducción propia).

39Sin perjuicio de la discusión antes aludida, la anotación entre paréntesis nos remite el debate acerca de la aplicación del principio de confianza en relación con sujetos inimputables, menores de edad o sujetos desprovistos de capacidad penal por razones psíquicas: por ejemplo, Maraver Gómez (2009: 126 y ss.). En efecto, parte de la doctrina descarta aquí su aplicación, argumentando que la confianza se puede valorar legítima —es decir, válida a efectos de limitar el deber de cuidado del sujeto confiante hacia el tercero— en cuanto, precisamente, descanse en la posibilidad de esperar una conducta cuidadosa y prudente del mismo; algo que no cabe esperar cuando se trate de sujetos inimputables y, por ello, necesitados de mayor control y protección. Sin embargo, el caso de la inteligencia artificial, aunque no se le reconozca ninguna «capacidad penal» (imputabilidad y reprochabilidad), es radicalmente distinto, pues no se trata de una persona incapaz de actuar según parámetros de «normalidad» y madurez psíquica; por el contrario, su empleo se justifica precisamente por el objetivo de favorecer mayores niveles de seguridad en el ejercicio de la medicina, tratando de disminuir la tasa de errores humanos evitables. Por ello, sería ilógico argumentar la no aplicación del principio de confianza en la relación colaborativa entre ella y el profesional acudiendo a ese criterio; que, además, por lo general, solo se aplica al tráfico vial y no al trabajo en equipo, en el que se supone, cabe esperar, que todo miembro integrante es capaz de cumplir sus propias funciones.

40Ambos casos se corresponderían a la eventualidad de que, en el marco del trabajo en equipo, la capacitación de los sujetos delegados no haya sido hecha de forma adecuada (para poder legítimamente confiar en su cumplimiento del cuidado debido) (Fernández Cruz, 2002: 116-118). Se podrían adoptar entonces criterios similares precautorios, pero compatibles con un criterio de «gravedad», como aquéllos defendidos en general en Perin (2017: 240-254).

41A este propósito, se puede destacar un efecto perverso de la llamada «medicina defensiva» (Perin, 2018: 861, 865): la sobreprescripción de pruebas diagnósticas, que configura una forma de medicina defensiva «positiva», puede llevar a la elaboración de datos clínicos cuantitativamente excesivos y cualitativamente no pertinentes, perjudicando de esta manera la calidad del aprendizaje (input) y la capacidad de previsión estadística (output) de los sistemas de inteligencia artificial basados en ellos.

42Véase, por ejemplo, los protocolos desarrollados por el Ministerio de Salud de Chile para la gestión del riesgo y la prevención de enfermedades profesionales en las empresas: «Protocolos Minsal-ACHS», Asociación Chilena de Seguridad, disponible en http://bit.ly/31K9pRi.

43«Reconocer la necesidad de revisar ocasionalmente nuestras reglas es un recordatorio útil del hecho de que las reglas necesariamente prescriben para el futuro, de tal forma que cualquier estimación de las consecuencias o aplicaciones futuras se ve afectada por la incertidumbre, y la conclusión de que las reglas contienen las condiciones de su propia obsolescencia» (Schauer, 2006: 31).

44Sobre la necesidad de definir ciertos estándares a través de procedimientos participados (en contra de la retórica de la neutralidad), véase Greco (2016: 13-4). Acerca de las guidelines como resultados de procesos de «coproducción», véase Di Landro (2012: 215). Destaca la importancia del pluralismo como «pluralidad de opiniones y de niveles (político, legislativo, jurisprudencial, ético, deontológico, científico)» y base para los procedimientos de decision-making (Casonato, 2012: 187-188).

45Taddeo y Floridi (2018: 752) plantean el problema haciendo referencia el riesgo de «erosión de la autodeterminación humana».

46Véase la discusión indicada anteriormente a propósito del right to explanation. A este propósito, cabe mencionar también el amplio debate crítico acerca de la adopción de algoritmos para determinar el riesgo de reiteración delictiva. Cfr., a propósito del caso Wisconsin con Loomis, De Miguel Beriain (2018) y Freeman (2016).

47La pérdida de libertad lleva a la misma «atrofia del juicio» (ya que el «juicio parte de los detalles particulares, las situaciones concretas, y busca valorar a la luz de ejemplos paradigmáticos, modelos que representen los valores de referencia y que son compartidos en el marco de comunidades homogéneas») que Hannah Arendt descubrió durante el proceso de Adolf Eichmann (Maletta, 1999: 81, 83, traducción propia). Cfr. además las reflexiones de Galimberti (2009: 3) sobre la distinción ética que se plantea en la sociedad tecnológica entre acting, que conlleva una asunción de responsabilidad por la acción realizada, y mere doing, «que concierne únicamente a la ejecución efectiva de un «trabajo», sin preocuparse por sus consecuencias».

Sobre el autor

Andrea Perin es licenciado en Derecho (giurisprudenza) por la Università degli Studi di Trento, Italia, Ph.D. en Comparative and European Legal Studies por la misma casa de estudios, y doctor en Derecho por la Universidad del País Vasco/EHU, España. Actualmente se desempeña como profesor investigador de Derecho Penal en la Facultad de Derecho de la Universidad Andrés Bello, Chile. Su correo electrónico es andrea.perin@unab.cl. http://orcid.org/0000-0001-9800-5376.

Recibido: 20 de Marzo de 2019; Aprobado: 19 de Junio de 2019

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons