Information Technology and Moral Values: Stanford Encyclopedia of Philosophy

Information Technology and Moral Values

  • 중요 문헌이라 번역 중간에 올립니다. 번역하는 대로 업데이트합니다.
  • 어휘는 IT용어사전을 참고합니다.

Introduction

정보 기술은 이제 전세계 어디에나 있습니다. 개인용 컴퓨터, 스마트폰, 인터넷, 인터넷 및 스마트폰 어플리케이션, 디지털 비서, 클라우드 컴퓨팅 등 여러 형태를 띠고 있죠. 사실 이 목록은 계속 늘어나고 있으며 새로운 기술들이 삶의 모든 측면에서 작동하고 있습니다. 예를 들어 대규모 온라인 게임(massive multiplayer online game)에서(2.1.1절 참조) 기술은 상호작용의 새로운 방식을 개척하고 있습니다. 기본적인 수준에서 정보 기술이란, 정보를 기록하고, 소통하며, 종합하고 조직하는 기술입니다. 정보는 유용한 자료, 지식, 의미있는 메시지 등을 말합니다. 문자 그대로의 정보란 생각에 “형태를 부여”하거나 형성하는 것을 의미합니다. 따라서 끈을 손가락에 묶어 격언을 상기하거나, 오늘 해야 하는 구체적인 업무가 있음을 기억하도록 돕는 것을 정보 기술의 초보적인 형태라고 볼 수도 있습니다. 끈에 더 복잡한 명제를 부여할 수도 있겠죠. “집에 오기 전에 식료품을 살 것.” 끈 자체는 정보가 아닙니다. 하지만 그것은 정보를 기호화하며 이 기호가 유용하려면 옳게 해석되어야 합니다. 질문이 발생합니다. 정보 자체란 무엇일까요?

불행하게도 아직 완전히 만족스럽고, 철학적으로 탄탄한 정의는 없습니다. 그래도 좋은 출발점 두 개는 찾아볼 수 있습니다. 정보의 존재론적 질문에서 당황하고 있다면, 기호에 집중해서 정보를 기호의 의미 순서 집합이라고 정의하는 것을 원할 겁니다. 이 방향은 상당히 유용해서, 수학자와 공학자들은 정보의 이 측면에 집중하는 것을 선호합니다. 이것을 “구문론”이라고 하며, 정보의 유용성이나 그 “의미론”은 다른 사람의 손에 맡기게 되죠. 벨 연구소에서 일하던 클로드 섀넌은 획기적인 통신의 수학적 이론을 제시했습니다(1948). 그는 암호학과 전화 기술의 경험을 바탕으로, 구문적 정보를 신호로 바꾸어 잡음이나 다른 외부 신호를 누그러뜨리고 전달되어 수신자가 메시지를 해독할 수 있는 방법에 관한 수학적 공식을 연구했습니다(섀넌 1948; 섀넌과 위버 1949). 섀넌이 설명한 개념, 그리고 너무 많아서 다 열거하기 힘든 다른 중요한 발견들은 정보 기술이 작동하는 방식을 설명해줍니다. 하지만 정보 기술이 도덕적 가치에 미치는 영향을 파악하려면 더 깊은 문제로 파고들어야 합니다.

두번째 출발점은 본성상 좀 더 철학적입니다. 여기에서는 정보는 우리와 우리 주변 모든 것의 존재를 구성하거나 그 구성과 밀접히 연관되어 있다는 주장에서 출발합니다. 이것은 정보가 우주가 작동하는 방식에서 존재론적 역할을 한다는 것을 의미합니다. 이런 입장은 정보를 철학의 중심에 놓게 되며, 이 개념은 정보 철학과 정보 윤리라는 새로운 영역을 일깨웠습니다. 정보 철학을 여기에서 구체적으로 다루지는 않겠지만, 관심있으시면 플로리디의 서설(2010b, 2011b)에서 출발하면 좋겠습니다. 정보 윤리의 가장 중요한 측면을 아래에서 개괄할 것입니다.

우리의 모든 행동은 정보의 발자국을 남기며, 미래에 활용하기 위해 기록, 저장할 수 있습니다. 예를 들어, 오늘 일어난 모든 일을 세세히 기록한 일기를 쓰는 단순한 기술을 활용할 수 있지요. 하지만 오늘날에는 발전된 정보 기술을 통해 더 세세한 내용을 추가할 수 있습니다. 모든 상거래, GPS를 통한 이동 경로, 방문한 인터넷 주소 목록, 인터넷에서 검색한 모든 내용들, 맥박과 혈압 등 신체 징후 전부, 오늘 먹은 것 전부 등 여러 예를 상상해 볼 수 있을 겁니다. 이 사고 실험을 통해 우리는 각자가 매일 얼마나 복잡한 정보의 흔적을 만들어내고 있는지, 그리고 정보 기술을 통해 이 자료가 수집되고 보관될 수 있는지 인식하게 됩니다. 그리고 정보 기술이 도덕적 가치에 영향을 미칠 수 있음을 인지하게 됩니다. 정보 수집이 더 자동적, 항상적이 되어갈 수록, 우리는 이 자료를 누가 통제하는지, 그것에 관해 어떻게 해야 하는지, 누가 그 정확성을 보증하는지에 관해 물을 수밖에 없게 됩니다. 예로, 어떤 정보가 공적으로 공개되어야 하며, 무엇은 사적인 것으로 남아야 하고, 기업과 같은 제삼자가 소유할 수 있게 되는 경우는 언제입니까? 정보의 생산, 접근, 통제에 관한 질문은 정보 기술의 활용을 둘러싼 도덕적 질문의 핵심입니다.

이 상황이 삶의 기본적 필요의 생산, 접근, 통제에 관한 도덕적 문제와 차이가 없다고 주장할 수도 있습니다. 그러나 큰 차이가 하나 있는데, 그것은 한 쪽이 자연적 재화의 접근을 통제한다면, 그것은 필연적으로 다른 쪽을 배제하는 것을 의미한다는 것입니다. 정보 기술에서는 이것은 필연적이지 않습니다. 디지털 기술은 배타적이지 않습니다. 그것은 최소한 이론적으로는 우리 모두가 같은 디지털 장보를 소유할 수 있다는 것을 의미합니다. 왜냐하면 디지털 자료를 복제하는 것이 원 자료의 소멸을 필요로 하지 않기 때문입니다. 정보 보급의 물리적 장애물이 없어졌기 때문에, 남는 것은 도덕성 또는 경제적 정의에 호소하여 특정 정보의 분배를 막는 것 뿐입니다. 따라서, 정보 기술에서 도덕적 가치의 역할을 이해하는 것은 기술의 설계와 활용에서 빼놓을 수 없는 부분입니다(존슨 1985; 무어 1985; 니센바움 1998; 스피넬로 2001). 이 항목이 정보 기술 윤리의 현상학적 접근을 직접 다루지 않는다는 점을 덧붙일 필요가 있을 것 같습니다(윤리와 정보 기술에 관한 현상학적 접근 항목 참조).


1. The Moral Challenges of Information Technology

주도적인 정보 기술 하나에서 다른 것으로 넘어가는 것은 항상 도덕적 논쟁을 불러왔습니다. 소크라테스는 구술 전통에서 점차 단어와 정보를 기록하고, 기록을 두루마리와 책으로 남기는 정보 기술로 전환되어 가는 시점에 살았습니다. 잘 알려져 있는 것처럼, 소크라테스는 저술에 반대하는 입장이었으며 자신은 아무 것도 적지 않았습니다. 얄궂게, 소크라테스의 논증을 알 수 있는 방법은 그의 학생인 플라톤이 선생을 무시하고 대화를 기록한 “파에드로스”(플라톤)를 통해서일 뿐이죠. 대화의 말미에서 소크라테스는 친구 파에드로스와 “… (저술)을 적절, 부적절하게 만드는 조건”에 관해 논의합니다(274b-497c 절). 소크라테스는 이집트의 신 세트가 타무 왕에게 쓰기의 재능을 선물한 우화를 이야기합니다. 타무는 재능에 만족하지 못하고 대답합니다.

사람이 이것을 배우면, 영혼에 망각을 새기게 될 것입니다. 그들은 쓰인 것에 의존하여 암기를 연습하는 것을 멈출 것입니다. 떠올리기 위해 자신의 기억 대신, 외부의 표식에 의존하게 될 것입니다(파에드로스, 275a 절).

대화에 시와 서사시의 구절을 인용하는데 능했던 소크라테스는 쓰기에 의존하게 되면 말을 온전히 이해하고 그에 따라 살아가게 되지 못할 것을 두려워합니다. 소크라테스는 쓰기에 부도덕함 또는 거짓이 포함되어 있다고 생각합니다. 책은 정보를 제공할 수는 있지만, 정보를 활용하고 깊이 이해할 수 있는 지혜를 주지는 않습니다. 반대로, 구술 전통에서는 서재에 조언을 청하는 것이 아니라, 당신 자신이 서재이며, 마음에 새긴 정보의 살아 있는 현현입니다. 소크라테스에게 책을 읽는 것은 저자와 이야기하는 것 만큼의 통찰을 가져다주지는 못합니다. 쓰인 단어는,

… 지능이 있는 것인 마냥 당신에게 말하는 것처럼 보일 테지요. 하지만 가르침 받고자 하여 그것이 말하는 것에 관해 질문하면, 똑같은 것을 계속 대답할 것입니다(파에드로스, 275d 절).

저술에 대한 그의 비판은 유머러스하게 보이지만, 회상에 이를 활용하고 그것을 기억이라고 부르고 싶은 유혹은 현대 정보 기술과 함께 점점 더 커지고 있습니다. 인터넷으로 찾으면 되는데 왜 배워야 할까요? 소크라테스의 걱정을 피하려면, 정보 기술은 단순히 정보에 접근하는 것 이상이어야 합니다. 지혜와 이해를 촉진할 수 있어야 하는 것입니다.

1.1 정보 기술의 근본적 성격

정보 기술 혁명 초창기에 리처드 메이슨은 정보 기술의 변화가 사회 계약을 재고하는 데에 필수적일 것이지 않겠느냐고 제안한 바 있습니다(메이슨 1986). 당시 그는, 사회 계약 갱신의 주기를 알지 못했습니다. 기술이 급속도로 변할 것이라는 점을 예상하지 못한 것이죠. 정보 기술의 변화는 빠르며, 당황스런 속도로 나아가고 있습니다. 이것은 그것이 미치는 도덕적 충격 각각을 열거하는 것조차 어렵게 만듭니다. 변화가 너무 급박하다는 사실은 중대하며, 새로 나타나는 기술의 전개 과정에 관해 윤리적 질문을 제기할 필요를 던지고 있습니다(무어 2008). 정보 기술의 항시적 변이는 우리가 그 변화의 도덕적 가치를 온전히 이해할 수 있는지 의심하게 만듭니다. 로렌조 마그나니는 정보 기술의 변화가 우리의 도덕적 사고 능력을 혼란시키는 것에 관한 지식을 습득하는 것이 “… 점차 기술 세계의 의무가 되어가고 있다”고 주장합니다(마그나니 2007, 93). 법률이론가 래리 레시그는 정보 기술의 변화 속도가 너무 빨라서 법과 정치의 느린, 숙고적 과정을 뒤처진 채로 놓아두며, 그 결과 기술을 무법 상태, 또는 초법 상태로 놓아둔다고 경고합니다. 예를 들어, 파일 공유 기술 때문에 저작권 위배를 축소하는 법이 결정된 시점에 이미 기술은 다음으로 넘어가 사용자는 저작권 위배의 다른 문제를 제기하는 식입니다(레시그 1999). 변화가 빠르긴 하지만, 정보 기술이나 그 적용을 아래 세 가지 유형으로 나눠 볼 수 있을 것입니다.

모든 정보 기술은 정보의 기록(보존), 전송(소통), 조직 및 종합입니다. 예를 들어, 책은 정보의 기록이며, 전화는 정보의 소통에 사용되고, 듀이 십진법은 정보의 조직 체계입니다. 여러 정보 기술은 셋 중 하나 이상의 기능을 수행하며, 특히 컴퓨터는 범용 기계(universal machine)로 모든 기능을 수행합니다(계산가능성과 복잡성 항목 참조). 어떤 형태의 정보 기술도 모방하는 프로그램을 짤 수 있습니다. 2절에서 정보 기술의 세 유형에 해당하는 정보 기술과 적용을 몇 가지 살피고, 특정 기술의 활용과 설계에서 발생하는 도덕적 문제를 따져볼 것입니다. 또, 완전히 정보로 구성된 환경에서 사람들이 다양한 형태의 사회적 활동을 영위하며 대안적 삶을 누리는 대규모 온라인 게임과 같은 정보 환경의 성장을 다룰 필요가 있습니다(2.3절 참조). 마지막으로 정보 기술이 도덕적 직관에 미치는 영향을 넘어, 그것이 도덕적 사고의 본성을 어떻게 바꾸는지 볼 필요가 있습니다. 3절에서, 도덕 기술로서의 정보, 그리고 어플리케이션과 로봇이 도덕적으로 상호작용하는 방식에 관해 살필 것입니다.


1.1.1 Moral Values in Information Recording

우리는 자료가 넘치는 세상에 살고 있습니다. 막대한 자료를 기록하고 보존하는 기술은 급속도로 성장하고 있습니다. 여기에서 일차적으로 발생하는 도덕적 문제는, 정보에 언제 수집하고, 보존하며, 접근하는 것이 정당한가, 모두가 이것을 공평하다고 생각할 것이며 모든 당사자의 최선의 이익을 보장할 것인가 하는 것입니다. 위에서 언급한 것처럼, 우리 각각은 매일 막대한 양의 정보를 생산하고 있으며 나중이 필요할 때 접근하기 위해 기록, 저장하여 유용한 자료로 만들 수 있습니다. 그러나 우리가 알지 못한 채로, 또는 암묵적 동의에만 의거하여 제삼자가 우리의 정보를 수집, 저장, 사용할 때 도덕적 난제가 제기됩니다. 정보 통제는 권력입니다. 이 권력을 전통적으로 휘두른 사회 기관으로 종교 단체, 대학, 도서관, 보건 당국, 정부 기구, 은행, 법인 등이 있었습니다. 이들은 보존한 정보에 접근하여, 개별 고객 및 고객층에 관한 어느 정도의 권력을 획득했습니다. 오늘날 각 시민은 정보의 전통적 매개자를 활용할 필요 없이 보존된 정보에 더 많이 접근할 수 있게 되었으며, 따라서 사회적 권력이 더 많이 개인에게 나눠졌습니다(레시그 1999 참조).

현대 정보 기술이 지닌 큰 가치 중 하나는 그것이 쉽게 정보를 기록하며, 심지어 자동적으로 기록한다는 것입니다. 오늘날 점점 더 많은 사람들이 혈압, 칼로리 섭취, 운동 패턴 등 생물측정(biometric) 자료를 애플리케이션에 제공하고 있으며, 애플리케이션은 더 건강한 생활습관을 지닐 수 있도록 도와줍니다. 이런 식의 자료 수집은 근미래에 더 자동화될 것입니다. 스마트폰의 GPS 추적을 활용하여 사용자의 걷기, 달기기의 거리와 기간을 측정하는 애플리케이션이 여럿 있습니다. 스마트폰이 매일의 혈압 데이터 스트림을 수집하여 특별히 높거나 낮은 수치가 나왔을 때 위치 표지를 붙여 저장하게 되기까지 얼마나 남았을까요? 어떤 의미에서 이것은 더 건강한 생활습관으로 이끌 수 있는 강력한 자료입니다. 하지만 정보가 잘못 넘어간다면 이것은 사생활을 심각하게 침해하는 것이 될 겁니다. 제삼자가 스마트폰이나 인터넷 애플리케이션으로 수집된 정보에 접근할 수 있다면, 이건 어려운 일도 아니니까요. 다음 절(1.1.2)에서 우리는 사생활을 지키기 위해 기록된 정보를 윤리적으로 소통하는 최선의 방법에 관한 이론을 살필 것입니다. 그러나 여기에서는 더 잠재적인 사생활 침해를 다뤄야 합니다. 즉, 사용자의 인지나 동의 없이 자료를 수집하고 기록하는 것 말입니다. 인터넷에서 자료를 검색하면, 브라우저 소프트웨어는 우리가 방문한 웹페이지에 관한 모든 종류의 자료를 기록합니다. 예컨대 다음 번에 다시 그 페이지를 방문했을 때 더 빨리 페이지를 띄우기 위해서 기록을 보관하곤 하지요. 웹페이지 자체도 접속한 컴퓨터에 관한 정보를 기록하는 다양한 방법을 지니고 있으며, 그 정보를 다음 번에 다시 방문했을 때 활용합니다. 어떤 웹사이트는 당신이 방문한 다른 사이트, 또는 어떤 페이지에서 가장 오래 머물렀는지 등을 파악합니다. 누군가가 도서관에서 당신 뒤를 쫒아다니면서 이런 정보를 적고 있다면 당신은 불편하거나 적의를 느끼겠지요. 하지만 온라인에서 이런 행위는 뒤에서 벌어지기 때문에 일반 사용자가 알기는 어렵습니다.

어떤 전문가에 따르면, 정보 기술은 거의 사적 영역을 제거합니다. 선 마이크로시스템즈의 스콧 맥닐리의 1999년 발언은 유명합니다. “사생활은 없어요. 받아들이세요.”(스프렌저, 1999). 헬렌 니센바움은 이를 보고,

물리적 벽과 불편은 정보를 찾아내는데 극도로 집착하는 이들을 뺀 모두를 좌절시켰다. 기술은 버튼 클릭이나 몇 천원의 비용으로 이를 가능케한다. (니센바움 1997)

이 글이 쓰인 이래 자료 수집은 점점 더 자동화되어가고 있으며, 비용은 내려가고 있습니다. 초창기 사생활에 관한 이론은 물리적 장벽의 불가침성을 가정했었으나, 이제 그것은 더이상 적용되지 않습니다. 그러나 니센바움이 주장하듯, 개인의 자율성과 친밀함은 사생활의 보호를 필요로 합니다(니센바움 1997).

이 절에서 마지막으로 살펴볼 것은, 정보 기술이 이제 “클라우드”에 사용자 자료를 보존한다는 것입니다. 이것은 자료가 사용자와 물리적으로 떨어져 있으며 사용자가 소유하거나 작동하지 않는 장비에 저장된다는 것을 의미합니다. 하지만 그 자료는 사용자가 사용하려는 어떤 장비에서도 사용할 수 있어야 합니다. 이 접근 용이성은 개인과 그 자신의 자료 사이의 관계를 더 빈약하게 만듭니다. 자료의 물리적 위치의 불확실성 때문이죠. 개인 자료의 보호는 매우 중요합니다. “클라우드” 서비스를 제공하는 제삼자는 자료를 올리는 사용자에게 신뢰성의 책임을 지고 있다는 것을 이해할 필요가 있습니다. 만약 플리커와 같은 서비스에 생애의 모든 사진을 올렸는데 업체가 손실, 삭제했다면, 이것은 되돌릴 수 없는 비극적인 실수가 될 것입니다.

1.1.2 Moral Values in Communicating and Accessing Information

1.1.3 Moral Values in Organizing and Synthesizing Information

1.2 The Moral Paradox of Information Technologies


2. Specific Moral Challenges at the Cultural Level

2.1 Social Media and Networking

2.1.1 Online Games and Worlds

2.1.2 The Lure of the Virtual Game Worlds

2.3 Malware, Spyware and Informational Warfare

2.4 Future Concerns

2.4.1 Acceleration of Change

2.4.2 Artificial Intelligence and Artificial Life

2.4.2.1 Artificial Intelligence
2.4.2.2 Artificial Life

2.4.3 Robotics and Moral Values


3. Information Technologies of Morality

3.1 Information Technology as a Model for Moral Discovery

3.2 Information Technology as a Moral System

3.4 Informational Oranisms as Moral Agents


Bibliography

Adam, A., 2002, “Cyberstalking and Internet pornography: Gender and the gaze,” Ethics and Information Technology, 4(2): 133–142.

–––, 2008, “Ethics for things,” Ethics and Information technology, 10(2–3): 149–154.

Anderson, M. and S. L. Anderson (eds.), 2011, Machine Ethics, Cambridge: Cambridge University Press.

Arkin, R., 2009, Governing Lethal Behavior in Autonomous Robots, New York: Chapman and Hall/CRC.

Arquilla, J., 2010, “Conflict, Security and Computer Ethics,” in Floridi 2010a.

Asaro, P. 2008. “How Just Could a Robot War Be?” in Philip Brey, Adam Briggle and Katinka Waelbers (eds.), Current Issues in Computing And Philosophy, Amsterdam, The Netherlands: IOS Press, pp. 50–64.

–––, 2009. “Modeling the Moral User: Designing Ethical Interfaces for Tele-Operation,” IEEE Technology & Society, 28(1): 20–24.

Aycock, J. and J. Sullins, 2010, “Ethical Proactive Threat Research,” Workshop on Ethics in Computer Security Research (LNCS 6054), New York: Springer, pp. 231–239.

Bartell, C., 2011, “Resolving the gamer’s dilemma,” Ethics and Information Technology, 14(1):11–16.

Baase, S., 2008, A Gift of Fire: Social, Legal, and Ethical Issues for Computing and the Internet, Englewood Cliffs, NJ: Prentice Hall.

Bedau, M., 2004, “Artificial Life,” in Floridi 2004.

Bedau, M. and E. Parke (eds.), 2009, The Ethics of Protocells: Moral and Social Implications of Creating Life in the Laboratory, Cambridge: MIT Press.

Bedau, M. and M. Traint, 2009, “Social and Ethical Implications of Creating Artificial Cells,” in Bedau and Parke 2009.

Bostrom, N., 2008, “Why I Want to be a Posthuman When I Grow Up,” in Medical Enhancement and Posthumanity, G. Gordijn and R. Chadwick (eds), Berlin: Springer, pp. 107–137.

Brey, P., 2008, “Virtual Reality and Computer Simulation,” in Himma and Tavanni 2008 –––, 2010, “Values in Technology and Disclosive Computer Ethics,” in Floridi 2010a.

Bunge, M. 1977, “Towards a Technoethics,” The Monist, 60(1): 96–107.

Bynum, T., 2000, “Ethics and the Information Revolution,” Ethics in the Age of Information Technology, pp. 32–55, Linköping, Sweden: Center for Applied Ethics at Linköping University.

–––, 2008, “Norbert Wiener and the Rise of Information Ethics,” in van den Hoven and Weckert 2008.

Capurro, R., Nagenborg, M., 2009, Ethics and Robotics, [CITY]: IOS Press

Christakis, D. A., 2009, “The effects of infant media usage: what do we know and what should we learn?” Acta Pædiatrica, 98 (1): 8–16.

Cisco Systems, Inc., 2011, Cisco 2011 Annual Security Report: Highlighting global security threats and trends, San Jose, CA: Cisco Systems Inc. [available online]

Coeckelbergh, M., 2007, “Violent Computer Games, Empathy, and Cosmopolitanism,” Ethics and Information Technology, 9(3): 219–231

Cohen, D. D., C. Voss, M. J. D. Taylor, A. Delextrat, A. A. Ogunleye, and G. R. H. Sandercock, 2011, “Ten-year secular changes in muscular fitness in English children,” Acta Paediatrica, 100(10): e175–e177.

Danielson, P., 1998, Modeling Rationality, Morality, and Evolution, Oxford: Oxford University Press.

Dabringer, G., (ed.) 2010, Ethica Themen: Ethical and Legal Aspects of Unmanned Systems, Interviews, Vienna, Austria: Austrian Ministry of Defence and Sports. [available online]

Denning, D., 2008, “The Ethics of Cyber Conflict,” In Himma and Tavanni 2008.

Dodig-Crnkovic, G., Hofkirchner, W., 2011, “Floridi’s ‘Open Problems in Philosophy of Information’, Ten Years Later,” Information, (2): 327–359. [available online]

Edgar, S.L., 2003, Morality and Machines, Sudbury Massachusetts: Jones and Bartlett.

Epstein, R., 2007, “The Impact of Computer Security Concerns on Software Development,” in Himma 2007a, pp. 171–202.

Epstein, L.S. 1980. “Decision-making and the temporal resolution of uncertainty”. International Economic Review 21 (2): 269–283.

Ess, C., 2009, Digital Media Ethics, Massachusetts: Polity Press.

Floridi, L., 1999, “Information Ethics: On the Theoretical Foundations of Computer Ethics”, Ethics and Information Technology, 1(1): 37–56.

–––, 2002, “What is the Philosophy of Information?” in Metaphilosophy, 33(1/2): 123–145.

–––, 2003, “On the Intrinsic Value of Information Objects and the Infosphere,” Ethics and Information Technology, 4(4): 287–304.

–––, 2004, The Blackwell Guide to the Philosophy of Computing and Information, Blackwell Publishing.

––– (ed.), 2010a, The Cambridge Handbook of Information and Computer Ethics, Cambridge: Cambridge University Press.

–––, 2010b, Information: A Very Short Introduction, Oxford: Oxford University Press.

–––, 2011a, “Enveloping the World for AI,” The Philosopher’s Magazine, 54: 20–21

–––, 2011b, The Philosophy of Information, Oxford: Oxford University Press. Floridi, L. and J. W. Sanders, 1999, “Entropy as Evil in Information Ethics,” Etica & Politica, special issue on Computer Ethics, I(2). [available online]

–––, 2001, “Artificial evil and the foundation of computer ethics,” in Ethics and Information Technology, 3(1): 55–66. [available online]

–––, 2004, “On the Morality of Artificial Agents,” in Minds and Machines, 14(3): 349–379 [available online]

Furguson, C. J., 2007, “The Good The Bad and the Ugly: A Meta-analytic Review of Positive and Negative Effects of Violent Video Games,” Psychiatric Quarterly, 78(4): 309–316.

Gelernter, D., 2007, “Artificial Intelligence Is Lost in the Woods,” Technology Review, July/August, pp. 62–70. [available online]

Gibba, G. D., J. R. Baileya, T. T. Lambirtha, and W. Wilsona, 1983, “Personality Differences Between High and Low Electronic Video Game Users,” The Journal of Psychology, 114(2): 159–165.

Grim, P., 2004, “Computational Modeling as a Philosophical Methodology,” In Floridi 2004.

Grim, P., G. Mar, and P. St. Denis, 1998, The Philosophical Computer: Exploratory Essays in Philosophical Computer Modeling, MIT Press.

Grodzinsky, F. S. and H. T. Tavani, 2002, “Ethical Reflections on Cyberstalking,” Computers and Society, 32(1): 22–32.

Hansen, R. and J. Grossman, 2008, “Clickjacking,” SecTheory: Internet Security. [available online]

Hickman, L. A. 1990, John Dewey’s Pragmatic Technology, Bloomington, Indiana: Indiana University Press.

Himma, K. E. (ed.), 2007a, Internet Security, Hacking, Counterhacking, and Society, Sudbury Massachusetts: Jones and Bartlett Publishers.

Himma, K. E., 2007b, “Hacking as Politically Motivated Digital Civil Disobedience: Is Hacktivisim Morally Justified?” In Himma 2007a, pp. 73–98.

Himma, K. E., and H. T. Tavanni (eds.), 2008, The Handbook of Information and Computer Ethics, Wiley-Interscience; 1st edition

Hongladarom, S., 2008, “Privacy, Contingency, Identity and the Group,”Handbook of Research on Technoethics. Vol. II, R. Luppicini and Rebecca Adell Eds. Hershey, PA: IGI Global, pp. 496–511.

Ivory, J. D., 2006, “Still a Man’s Game: Gender Representation in Online Reviews of Video Games,” Mass Communication and Society, 9(1): 103–114.

Johansson, M., 2009, “Why unreal punishments in response to unreal crimes might actually be a really good thing,” Ethics and Information Technology, 11(1): 71–79

Johnson, D.G., 1985, Computer Ethics, Englewood Cliffs, New Jersey: Prentice Hall. (2nd ed., 1994; 3rd ed., 2001; 4th ed., 2009).

Johnson D. G., and T. Powers, 2008, “Computers and Surrogate Agents,” In van den Hoven and Weckert 2008.

Jones, T., 2011, “Techno-toddlers: A is for Apple,” The Guardian, Friday November 18. [available online ]

Kaspersky Lab, 2011, Cyberthreat forecast for 2012, Moscow, Russia: Kaspersky Lab ZAO. [available online]

Kurzweil, R., 2006. The Singularity is Near, New York: Penguin Press.

Langton, C. G., (ed.), 1989, Artificial Life: the Proceedings of an Interdisciplinary Workshop on the Synthesis and Simulation of Living Systems, Redwood City: Addison-Wesley.

Ledin G., 2005, “Not Teaching Viruses and Worms is Harmful” Communications of the ACM , 48(1): 144.

Lessig, L., 1999, Code and Other Values of Cyberspace, New York: Basic Books.

Levy, S., 1984, Hackers: Heroes of the Computer Revolution, New York: Anchor Press.

Lin, P., K. Abney, and G. Bekey, 2011, Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge: MIT Press.

Lin, P., G. Bekey, and K. Abney, 2008, Autonomous Military Robotics: Risk, Ethics, and Design, Washington DC: US Department of the Navy, Office of Naval Research. [available online]

Lovely, E., 2010, “Cyberattacks explode in Congress,” Politico, March 5, 2010. [available online]

Lü, Yao-Hui, 2005, “Privacy and Data Privacy Issues in Contemporary China,” Ethics and Information Technology, 7(1): 7–15

Ludlow, P. and M. Wallace, 2007, The Second Life Herald: The Virtual Tabloid that Witnessed the Dawn of the Metaverse, Cambridge, MA: MIT Press.

Luck, M., 2009, “The gamer’s dilemma: An analysis of the arguments for the moral distinction between virtual murder and virtual paedophilia,” Ethics and Information Technology, 11(1): 31–36.

Luppicini, R. and R. Adell (eds.), 2009, Handbook of Research on Technoethics, Idea Group Inc. (IGI).

Magnani, L., 2007, Morality in a Technological World: Knowledge as Duty, Cambridge, Cambridge University Press.

Mason, R. O., 1986, Four ethical issues of the information age. MIS Quarterly, 10(1): 5–12.

Markoff, J., 2005, What the Dormouse Said: How the 60s Counterculture Shaped the Personal Computer Industry, New York: Penguin.

Manion, M. and A. Goodrum, 2007, “Terrorism or Civil Disobedience: Toward a Hacktivist Ethic,” in Himma 2007a, pp. 49–59.

McMahon, J. M. and R. Cohen, 2009, “Lost in cyberspace: ethical decision making in the online environment,” Ethics and Information technology, 11(1): 1–17.

Midgley, M., 1992, Science as Salvation: a modern myth and its meaning, London: Routledge.

Moor, J. H., 1985, “What is Computer Ethics?” Metaphilosophy, 16(4): 266–275.

–––, 2005, “Why We Need Better Ethics for Emerging Technologies,” Ethics and Information Technology, 7(3): 111–119. Reprinted in van den Hoven and Weckert 2008, pp. 26–39.

Moore, Gordon E. 1965. “Cramming more components onto integrated circuits”. Electronics, 38(8): 114–117. [available online]

Neumann, P. G., 2004, “Computer security and human values,” Computer Ethics and Professional Responsibility, Malden, MA: Blackwell

Nissenbaum, H., 1997. “Toward an Approach to Privacy in Public: Challenges of Information Technology,” Ethics and Behavior, 7(3): 207–219. [available online]

–––, 1998. “Values in the Design of Computer Systems,” Computers and Society, March: pp. 38–39. [available online]

–––, 1999, “The Meaning of Anonymity in an Information Age,” The Information Society, 15: 141–144.

–––, 2009, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford Law Books: Stanford University Press.

Northcutt, S. and C. Madden, 2004, IT Ethics Handbook: Right and Wrong for IT Professionals, Syngress.

Parrish, J., 2010, “PAPA knows best: Principles for the ethical sharing of information on social networking sites,” Ethics and Information Technology, 12(2): 187–193.

Pettit, P., 2009, “Trust, Reliance, and the Internet,” In van den Hoven and Weckert 2008.

Plato, “Phaederus,” in Plato: The Collected Dialogues, E. Hamilton and H. Cairns (eds.), Princeton: Princeton University Press, pp. 475–525.

Powers, T., 2011, “Prospects for a Kantian Machine,” in Anderson and Anderson 2011.

Purcell, M., 2008, “Pernicious virtual communities: Identity, polarisation and the Web 2.0,” Ethics and Information Technology, 10(1): 41–56.

Reynolds, G., 2009, Ethics in Information Technology, (3rd ed.), Course Technology.

Russell, S. and P. Norvig, 2010, Artificial Intelligence: A Modern Approach, (3rd ed.), Massachusetts: Prentice Hall.

Schmidt, C. T. A., 2007, “Children, Robots and… the Parental Role,” 17(3): 273–286.

Schulzke, M., 2010, “Defending the Morality of Violent Video Games,” Ethics and Information Technology, 12(2): 127–138.

Shannon, C.E., 1948, “A Mathematical Theory of Communication”, Bell System Technical Journal, 27(July, October): 379–423, 623–656. [available online]

Shannon, C. E. and W. Weaver, 1949, The Mathematical Theory of Communication, University of Illinois Press.

Sharkey, N.E. 2011, “The automation and proliferation of military drones and the protection of civilians,” Journal of Law, Innovation and Technology, 3(2): 229–240.

Singer, P. W., 2009, Wired for War:The Robotics Revolution and Conflict in the 21st Century, Penguin (Non-Classics); Reprint edition.

Siraj-Blatchford, J., 2010, “Analysis: ‘Computers Benefit Children’,” Nursery World, October 6. [available online]

Soukup, C., 2007, “Mastering the Game: Gender and the Entelechial Motivational System of Video Games,” Women’s Studies in Communication, 30(2): 157–178.

Søraker, Johnny Hartz, 2012, “How Shall I Compare Thee? Comparing the Prudential Value of Actual Virtual Friendship,” Ethics and Information technology, 14(3): 209–219. doi:10.1007/s10676-012-9294-x [available online]

Spafford, E.H., 1992, “Are computer hacker break-ins ethical?” Journal of Systems and Software 17(1):41–47.

–––, 2007, “Are Computer Hacker Break-ins Ethical?” in Himma 2007a, pp. 49–59.

Spinello, R. A., 2001, Cyberethics, Sudbury, MA: Jones and Bartlett Publishers. (2nd ed., 2003; 3rd ed., 2006; 4th ed., 2010).

–––, 2002, Case Studies in Information Technology Ethics, Prentice Hall. (2nd ed.).

Sprenger P., 1999, “Sun on Privacy: ‘Get Over It’,” Wired, January 26, 1999. [available online]

Sullins, J. P., 2000, “Transcending the meat: immersive technologies and computer mediated bodies,” Journal of Experimental and Theoretical Artificial Intelligence, 12(1): 13–22.

–––, 2005, “Ethics and Artificial life: From Modeling to Moral Agents,” Ethics and Information technology, 7(3): 139–148. [available online]

–––, 2006, “When Is a Robot a Moral Agent?” International Review of Information Ethics, 6(12): 23–30. [available online]

–––, 2009a, “Artificial Moral Agency in Technoethics,” in Luppicini and Adell 2009.

–––, 2009b, “Telerobotic weapons systems and the ethical conduct of war,” APA Newsletter on Philosophy and Computers, P. Boltuc (ed.) 8(2): 21.

–––, 2010, “Rights and Computer Ethics,” in Floridi 2010a.

–––, forthcoming, “Deception and Virtue in Robotic and Cyber Warfare,” Presentation for the Workshop on The Ethics of Informational Warfare, at University of Hertfordhire, UK, July 1–2 2011

Tavani, H. T., 2007, “The Conceptual and Moral Landscape of Computer Security,” in Himma 2007a, pp. 29–45.

–––, 2010, Ethics and Technology: Controversies, Questions, and Strategies for Ethical Computing, (3rd ed.), Wiley.

Tavani, H. and J. Moor, 2004, “Privacy Protection, Control of Information, and Privacy-Enhancing Technologies,” in Readings in Cyberethics, second edition, Spinello, R. and Tavani, H. (eds.), Sudsbury: Jones and Bartlett.

Taylor, N., J. Jensona, and S. de Castellb, 2009. “Cheerleaders/booth babes/ Halo hoes: pro-gaming, gender and jobs for the boys,” Digital Creativity, 20(4): 239–252.

Turing, A. M., 1948, “Machine Intelligence”, in B. Jack Copeland, The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press.

–––, 1950, “Computing Machinery and Intelligence”, Mind, 59(October): 433–460. [available online]

Vallor, S., 2010, “Social Networking Technology and the Virtues,” Ethics and Information Technology, 12(2, Jan. 6): 157–170.

–––, 2011, “Flourishing on Facebook: Virtue Friendship and New Social Media,” Ethics and Information technology, 1388–1957, pp. 1–15, Netherlands: Springer.

Van den Hoven, J. and J. Weckert (eds), 2008, Information Technology and Moral Philosophy, Cambridge: Cambridge University Press.

Von Neumann, J., 1966, Theory of Self Reproducing Automata, edited and completed by A. Burks, Urbana-Champaign: University of Illinois Press.

Wallach, W., 2011. From Robots to Techno Sapiens: Ethics, Law and Public Policy in the Development of Robotics and Neurotechnologies, Law, Innovation and Technology, 3(2): 185–207.

Wallach, W. and C. Allen, 2010, Moral Machines: Teaching Robots Right from Wrong, Oxford: Oxford University Press.

Warschauer, M., 2003, Technology and Social Inclusion: Rethinking the Digital Divide, Cambridge: MIT Press.

Weckert, John, 2007, “Giving and Taking Offence in a Global Context,” International Journal of Technology and Human Interaction, 3(3): 25–35.

Westin, A., 1967, Privacy and Freedom, New York: Atheneum.

Wiener, N., 1950,The Human Use of Human Beings, Cambridge, MA: The Riverside Press (Houghton Mifflin Co.).

–––, 1961, Cybernetics: Or Control and Communication in the Animal and the Machine, 2nd revised ed., Cambridge: MIT Press. First edition, 1948.

Woodbury, M. C., 2010, Computer and Information Ethics, 2nd edition; 1st edition, 2003, Champaign, IL: Stipes Publishing LLC.