The information on this Web page has been provided by external sources. The Government of Canada is not responsible for the accuracy, reliability or currency of the information supplied by external sources. Users wishing to rely upon this information should consult directly with the source of the information. Content provided by external sources is not subject to official languages and privacy requirements.
A
Access Copyright, The Canadian Copyright Licensing Agency
Technical Evidence
Access Copyright is a not-for-profit reproduction rights organization (RRO) that licenses the reproduction of works whose copyright is owned by creators and publishers with whom it has affiliation agreements.
Access Copyright, along with the Canadian creative sector, supports innovation in artificial intelligence (AI) technology, provided that policy measures taken in respect of generative AI are mindful, ensure that existing copyright law is respected and generative AI is used responsibly and ethically, and incorporate matters of importance to creators and rights holders, in order to ensure a level playing field between the creative industries and the technological sector.
Text and Data Mining
The Copyright Act is fit for purpose. Text and data mining (TDM) and the training of generative AI platforms engages the exclusive rights of the copyright holder in respect of their works, and TDM activity does not fall under existing fair dealing exceptions. It is Access Copyright’s submission that no exceptions for TDM activities should be introduced or required under the legislation.
TDM activity in Canada
There is no question that TDM activity is occurring in Canada. Generative AI models take in data via TDM activity, scraped from webpages or fed directly to large language models (LLMs); this activity occurs without borders, including in Canada. As the Canadian AI industry grows, the amount of TDM activity occurring in Canada is likely to increase further. For example, Cohere is a Canadian multinational tech company focused on artificial intelligence and LLMs, that recently announced new financing to accelerate their pace of development (https://txt.cohere.com/announcement/).
When generative AI platforms engage in TDM activities, the platform’s consumption of copyrighted works constitutes complete or at least substantial reproductions of such works. TDM activities, like other substantial reproductions, fall under the exclusive rights of rights holders, and require a license before the work is used for such purpose. It appears that most, if not all, of the LLM models are currently profiting from unauthorized use and reproduction of copyright protected works, infringing both the economic rights of rights holders and the moral rights of creators.
There are already many exceptions to copyright law in Canada, which have created an imbalance that has prevented rights holders from receiving fair compensation for their work and has discouraged creators from making and sharing new material. For instance, the addition of "education" as a fair dealing purpose in 2012 has led to over a decade of litigation and a loss of $200 million in royalties for Access Copyright's affiliates. Many publishers and creators have since stopped publishing for the education sector, thus depriving Canadian classrooms and students of new Canadian content. Introducing any new exceptions for TDM would further disrupt the balance the Copyright Act aims to achieve.
While clarity around copyright and TDM in Canada is a laudable goal, it is unlikely to be fully achievable, given the fast pace at which technology and the market are evolving. Importantly, the rights market for AI and TDM is still developing. There are serious risks in hastily assuming any new technology automatically requires new copyright exceptions before its full impacts are clear and the rights market has adapted to the new uses. Reflexive reactions cannot adequately consider the speed at which generative AI is advancing and how quickly it may transform creative industries. The introduction of exceptions for TDM activities would encroach on and undermine present and future rights markets, resulting in an unknown quantum of harm to the creative sector.
Licensing of TDM activities
In jurisdictions around the world, including Canada, many types of licenses and models are emerging to address the TDM needs of different use cases. Many publishers directly license their works for TDM purposes, as do some copyright collectives. For example, the Copyright Clearance Center, a copyright collective based in the United States, provides a RightFind XML for Mining license (https://www.copyright.com/businesses/xmlformining/). Other industry players such as Elsevier, a journal publisher, have also successfully engaged in TDM licensing (https://www.elsevier.com/about/policies/text-and-data-mining). Newspapers license their articles for TDM for media monitoring and news aggregation purposes (https://www.canada.ca/en/canadian-heritage/campaigns/fair-revenue-sharing/stakeholder-engagement.html). The non-fiction book summary service get Abstract works with publishers and obtains copyrights to all books they summarize to add to their library (https://support.getabstract.com/en/knowledge/summaries-copyright). In short, many businesses are willing to pay for TDM licenses because they recognize the value of the works licensed.
It is essential that both direct licensing and collective licensing by rights holders for TDM activities are allowed to flourish, permitting the development of a vibrant Canadian rights marketplace, where generative AI developments exist alongside the protection of the rights of copyright holders and fair compensation when their works are used by AI platforms. Creators must have the ability to control when their protected works are used for TDM purposes. When a creator chooses to allow such use via license, they should have the opportunity to participate in the value generated by AI systems that they have contributed to by virtue of the platform using their protected works.
As an example of a foreign government recognizing the need to maintain and grow a vibrant rights market for the benefit of the creative sector, the UK’s current version of its Artificial Intelligence (Regulation) Bill has abandoned an expanded TDM exception in order to maintain a rights marketplace where rights holders are fairly compensated for use of their works, while still allowing the AI sector to grow (https://www.allenovery.com/en-gb/global/blogs/data-hub/uk-re-considers-proposed-exception-for-text-and-data-mining).
As the market for TDM evolves, various entities are and will continue to offer access to data, protected works, and licenses, including collective licenses, for generative AI training purposes. The costs of such licenses will properly continue to vary by supplier and the content covered by the license. In a robust and balanced licensing market, the appropriate cost of licensing for TDM will adjust organically with that evolving market, as negotiated by parties on equal footing. The government should not insert itself in these negotiations, as doing so would impede the development of market-based solutions for TDM.
Should TDM activities be determined by a court to be subject to an existing fair dealing exception under the Copyright Act or should a new exception specifically for TDM activity be created, the Canadian rights market would be dramatically hindered or subverted entirely, unfairly impacting creators and allowing large generative AI systems to be the sole beneficiaries deriving value from the creative works ingested by their platforms. As such, policy measures taken in respect of generative AI technologies must always ensure that rights holders of copyrighted works can effectively license and enforce their rights in respect of their protected works.
Transparency obligations of AI developers
Rights holders face difficulties licensing works for TDM due to a lack of transparency into how AI systems use their content. This lack of transparency enables some platforms to take a bullish attitude that no authorization is needed under copyright law or that their systems are non-infringing, offering indemnification despite protests over fair use from executives like the one who resigned from Stability AI (https://www.bbc.com/news/technology-67446000). Binding transparency obligations on generative AI systems, like those proposed in Europe, would help address this issue by illuminating how rights holders' works are used and correcting the information imbalance that allows licensing challenges to persist.
Both consumers and rights holders must know how protected works are being used by the platform in question. Further, record keeping and disclosure obligations by generative AI platforms are necessary for such rights holders to know when their works are being used by AI systems.
Currently, there is no transparency in respect of TDM activities. TDM activity is taking place within a “black box,” where rights holders know it is happening, but due to the information asymmetry between themselves and AI platforms, they cannot determine who is conducting the activity, with whose works, and have no mechanism to stop it from happening.
Without robust transparency requirements, rights holders have an impossible evidentiary burden to demonstrate that AI platforms have infringed their copyright in the consumption of their protected works via the TDM process. To rectify this imbalance, generative AI systems must be required to disclose the source records of all protected works used to train their platforms, allowing a rights holder to determine when and how their protected work has been used.
Serious harm to the creative and cultural sector
The substantial reproduction of works undertaken in the process of TDM must only be permitted on a licensed basis, where creators must be able to choose whether to license the use of their works to train LLMs.
While there is currently an emerging market for the licensing of TDM activities in Canada, lack of transparency requirements undermines the ability of rights holders to fully engage in ensuring, in the appropriate circumstances, that the use of their works is properly licensed. The creation of a TDM exception would severely reduce, if not destroy, this emerging and growing rights market. Importantly, rights holders must be able to prohibit outright the use of their works for AI training purposes where such use might potentially substitute the market for the original work.
The creative industry in Canada can only thrive where rights holders can give or withhold permission for AI platforms to use their works, and where such permission is given, those rights holders are fairly compensated for the use of those works.
Authorship and Ownership of Works Generated by AI
It is a fundamental principle of copyright that copyright protection is available exclusively for human creators. A key threshold under the Copyright Act is that a work must be original, meaning it cannot simply be a replication of another work, and must result from a process involving an exercise of the author’s skill and judgment (CCH Canadian Ltd v Law Society of Upper Canada, [2004] 1 SCR 339, 2004 SCC 13). The necessary skill and judgment to meet the standard of originality simply cannot be exercised by a machine. Consequently, AI-assisted works may only receive copyright protection if humans have significantly contributed to and imparted the necessary exercise of skill and judgment. In contrast, outputs entirely generated by AI are not eligible for copyright protection, as they lack human input and insight.
Moreover, we recommend that when an output is fully AI generated, without human contribution, it must be clearly labelled to indicate that it has been generated solely by an AI tool. This labelling requirement ensures that consumers are informed that what they are viewing or reading is the product of generative AI, preventing any potential misleading of the public regarding the nature of the content.
Human creativity and expression in the creation of copyrightable works must be prioritized, in order to maintain our cultural expression, diversity and discourse in Canada. Canada’s cultural expression through books, magazines, visual art, music, movies, and other works is a demonstration of how we share our values and beliefs, build Canadian culture, and maintain a sovereign cultural identity.
Canada’s cultural industry is a significant and valuable economic driver, as well. Currently, the arts, cultural and heritage sector represents more than $57 billion in the Canadian economy, and contributes 673,000 jobs to the Canadian marketplace (https://www.canada.ca/en/canadian-heritage.html).
We strongly encourage the Government of Canada to make decisive, sensible, and prudent decisions to ensure the responsible deployment of generative AI. Careful consideration and creation of policy measures are necessary to prevent the overshadowing or silencing of the human voices, that are so integral to Canada’s rich tapestry of cultural expression, by AI generated content.
The unchecked expansion of generative AI, in the absence of adequate policy measures, poses a risk of further consolidating power within major technology platforms, predominantly non-Canadian entities, which already dominate the spheres of content discovery and distribution. The advent of automated content creation and production by AI tools could enable these platforms to exert control over the entire spectrum of the Canadian cultural value chain, from creation to distribution. This scenario underscores the need for strategic policy interventions to maintain a diverse and balanced cultural ecosystem.
Infringement and Liability regarding AI
TDM and the training of generative AI with copyright protected works certainly infringes the exclusive rights of rightsholders; however, such clarity of position is insufficient to allow rightsholders to make infringement claims against those platforms that would ingest their protected works without permission.
Without AI developers and platforms being required to offer full transparency regarding the works used to train generative AI models, rightsholders face an insurmountable challenge in proving infringement of their protected work. Establishing that infringement has occurred requires that a rightsholder prove: (1) a defendant copied or made available all or a substantial part of its protected work, (2) the defendant had access to the original work, and (3) that the original work was the source of the copy. It is nearly impossible for a rightsholder to provide evidence to these ends without AI developers being subject to obligations of robust transparency about the works used to train their AI platforms.
To rectify the information imbalance between rightsholders and generative AI systems, all AI platforms must be required to publicly disclose and keep accessible traceable records of the works used to train their systems. This level of transparency is essential to enabling rightsholder to ascertain if their work has been used by the AI system for training purposes, constituting an infringement if done without the rightsholder’s consent. Provided such record-keeping and disclosure obligations are put in place, the Copyright Act would be sufficient to address issues of infringement specific to generative AI.
The EU’s new AI Act has dedicated rules for generative AI systems to ensure transparency along the value chain. We recommend that the government adopt legally binding transparency obligations to generative AI systems, at least as stringent as those recommended by the European Parliament.
Requiring generative AI systems to publish records of ingested copyrighted content is necessary so copyright owners can protect and monetize their intellectual property. With transparency obligations in place, the current Copyright Act's infringement provisions will be sufficient to address generative AI issues, while transparency will promote a more efficient licensing market by reducing information asymmetry.
Comments and Suggestions
N/A
ACT | The App Association
Technical Evidence
Our member companies are small and medium-sized businesses (SMBs) that use GAI to assist technology development and business operations. These companies entrust GAI platform providers to take reasonable steps to avoid possible infringement and other liability for themselves and their platform users. Since SMBs often lack resources to protect themselves, it is important that the GAI platform providers and government entities provide GAI users with guidance and basic resources to operate within the law. We provide further detail in our answers to following questions
Text and Data Mining
1. What would more clarity around copyright and TDM in Canada mean for the AI industry and the creative industry?
Due to the potential for generative artificial intelligence (GAI) to train on, and output, data that is covered by intellectual property (IP) protections, ACT | The App Association agrees that GAI platforms and their users require clear policy guidance on how Canada will evaluate liability associated with text and data mining (TDM) to train GAI platforms and with the use of its potentially IP infringing outputs by a platform user.
For small business software developers, such as App Association members, GAI platforms are advanced technical tools that are invaluable to their creative and innovative processes that save costs and time by streamlining repeatable tasks and optimizing limited resources. Software developers have been using AI tools that heavily rely on human intervention to deliver a desired output for years, but AI tools are reducing, and are very likely to continue to reduce, the need for human instruction and intervention. For example, software developers use AI to improve the software coding process; support training a new generation of strong software developers; complete repeatable tasks; detect common mistakes, issues, and risks in the software development process that would otherwise require manual interventions; and run quality assurance checks that reduce the chance of human bias and error. GAI tools are different from traditional AI tools in that they have an independent process that mimics cognition to develop new outputs. For software developers, GAI platforms not only seamlessly predict and complete lines of code, but they produce outcomes by training on various resources, including internet archives, data laundering sources, and even platform user inputs.
Much like a human brain, AI systems train on data to understand patterns and create rules that help them make decisions. Like a human brain, GAI might output, in part or in whole, an image, writing, wordmark, or other IP protectable work that it was trained on. Where a GAI system does produce an infringing work, App Association members are concerned about the liability of a GAI user that unintentionally incorporates the infringing output in their final product. The law is still developing on this issue, and the outcome of ongoing proceedings in Canada (and in other important jurisdictions) is likely to influence the speed of innovation across sectors increasingly looking to operate as efficiently as possible. For example, if it is revealed that GAI platforms are, in some cases, effectively copy-and-pasting data, the effect can be catastrophic because of the amount of work that has already been conducted using GAI systems.
App Association members operate with minimal resources and are most acutely harmed by unpredictable copyright outcomes related to liability. The interdependent relationship between a GAI platform and its users is important, and today GAI platforms are essential for small business technology developers to compete. As this type of relationship grows, clear, reliable, and strong guidance for GAI platforms and its users to advance an understanding of the legal bounds of TDM activity will be imperative to protecting IP, as well as supporting investment and innovation. Since the law for GAI and copyright is still developing, we urge the Government of Canada (GOC) to take a fact-finding role at this time, and to make its findings public to inform the debate about future policy changes needed to address GAI and copyright, should any be needed. Canadian policy changes should be based on well-demonstrated systemic problems (and not edge use cases or hypotheticals that exemplify possible uses and capabilities of AI outside what we presently understand). As Canadian courts examine and define the boundaries of using AI, we urge the GOC to seek industry input on an ongoing basis to inform the development of detailed and guidance, and potential changes in policy, related to copyright and the use of GAI.
2. Are TDM activities being conducted in Canada? Why is it the case or not?
Yes. In general, researchers and companies have been using TDM practices to analyze large data for years and, when done in good faith, these practices are an economical and efficient way to leverage information. TDM activities related to GAI technology are occurring both in Canada and around the world, and we support GOC evaluating and publicizing its findings as to the extent and nature of TDM activities it is observing in Canada to inform the public debate.
3. Are rights holders facing challenges in licensing their works for TDM activities? If so, what is the nature and extent of those challenges?
Currently, there is no standard licensing practice for TDM activities as related to AI, and specifically, GAI. Yet, IP rights holders have certain tools at their disposal to protect their public-facing IP-protected works, including ones that themselves use AI. For example, rights holders may deploy exclusion protocols (ex. robots.txt) that notify search engine crawlers and miners that they are prohibited from accessing certain data.
4. What kind of copyright licenses for TDM activities are available, and do these licenses meet the needs of those conducting TDM activities?
TDM licenses exist as written agreements between private parties or as embedded codes in a website, digital work, or digital representation of a work. In practice, there is no standard TDM license or common practice. GOC should evaluate the ecosystem and, based on systemic issues and ambiguities identified, develop appropriate guidance to ensure that copyright licenses for TDM activities do not strip the ability for those activities to benefit the public good.
5. If the Government were to amend the Act to clarify the scope of permissible TDM activities, what should be its scope and safeguards? What would be the expected impact of such an exception on your industry and activities?
While it is imperative that copyrighted works are strongly protected under Canadian copyright law, it is equally important that innovation and creativity is not stunted by restrictive laws that curtail the benefits of essential and advanced technological tools, including AI tools. TDM activities are used to research, inform, educate, and, as a result, expand the ability of stakeholders to grow critical and new markets. Therefore, GOC should ensure that a “fair dealings” analysis is applied to TDM activities on a case-by-case basis. With the advent of GAI, courts have yet to carve out and define unique nuances of GAI platforms and their TDM activities. Other long-standing industries have been using TDM tools in order to advance, discover, and build upon existing works. GOC should not alter existing, or create new, copyright laws or regulations unless systemic problems are clearly identified; instead, GOC should look to generate helpful guidance addressing TDM activities and potential copyright infringement in alignment with relevant Canadian court decisions.
6. Should there be any obligations on AI developers to keep records of or disclose what copyright-protected content was used in the training of AI systems?
Since AI systems may store mined content in their internal database, it is possible to require their developers or owners to keep records of content that is copyright protected. However, disclosure requirements may be taxing dependent on the amount of content trained on and stored in the AI system’s internal database. We urge GOC to hold off on creating strict disclosure requirements for AI systems at this time; instead, GOC should partner with the private sector to encourage that AI systems should take reasonable steps to ensure that they are not infringing upon copyright protected content.
If an AI provider reasonably knows that copyrighted content was infringed by the AI or its user, the provider should take reasonable steps to remedy the situation, and such reasonable steps could be outlined in public guidance laid out by GOC. The App Association commits to collaborating with GOC to develop and socialize copyright and AI guidance for AI providers and its users.
7. What level of remuneration would be appropriate for the use of a given work in TDM activities?
N/A
8. Are there TDM approaches in other jurisdictions that could inform a Canadian consideration of this issue?
Some countries have rigid TDM restrictions that are antithetical to Canadian law, many of which create unnecessary hurdles to innovation that are not in the public interest. We urge GOC to rely on its own legal regime and the opinions of its stakeholders to determine proper approaches to TDM activities, and to take action to address demonstrated harms/problems for the Canadian economy and copyright system.
Authorship and Ownership of Works Generated by AI
1. Is the uncertainty surrounding authorship or ownership of AI-assisted and AI-generated works and other subject matter impacting the development and adoption of AI technologies? If so, how?
While Canadian copyright law does not explicitly state that AI-assisted and AI-generated works require human intervention to be copyrightable, courts have interpreted copyright “authorship” to require a natural person exercising skills and judgement to create the work. This understanding is consistent with significant jurisdictions, including the United States, EU, and UK. While these jurisdictions specifically reject works that are wholly constructed by AI, Canadian courts have not made this distinction. In fact, the Canadian Intellectual Property Office (CIPO) has accepted AI as a co-author to an artistic work in at least one registration. “SURYAST” (Artistic) Ankit Sahni, Can 1188619 (1 December 2021) registered. While CIPO registrations are not precedential due to a lack of substantive review, this system has, at times, gone against the understanding that Canadian copyright protection should only be awarded to natural persons. GOC should work to provide stakeholders with stronger guidance on elements of copyright protection, including authorship.
2. Should the Government propose any clarification or modification of the copyright ownership and authorship regimes in light of AI-assisted or AI-generated works? If so, how?
GOC should provide stakeholders with clear guidance on what works can be registered in compliance with understandings from Canadian jurisprudence. Currently, the CIPO has accepted at least one registration for which AI was enlisted as a co-author, while judicial interpretation suggests that only natural persons can be authors of a copyrighted work. GOC is strongly advised to provide stakeholders with clarity on this matter unless and until courts state otherwise.
3. Are there approaches in other jurisdictions that could inform a Canadian consideration of this issue?
We encourage GOC to monitor jurisdictions like the United States, EU, and UK that are currently gathering stakeholder input and considering further guidance for their stakeholders. We note our community’s concerns with the U.S. registration system as it pertains to AI, which is presently unworkable for its stakeholders. As it stands, the U.S. Copyright Office (USCO) requires applicants to disclaim AI-generated content that is more than de minimis. This standard for registration does not consider the various uses of AI across different forms of expression, nor does it ask the more important question of whether and how much human authorship was applied in the development of a work seeking copyright registration. The modified registration requirement has caused the USCO to make a series of misguided judgements on whether a work should be properly registered based on its determination of what constitutes AI-generated content. Based on recent registration decisions, the USCO is unconvinced that an individual prompting GAI to produce an output amounts to human input. This inflexible standard does not account for the technological advancements that have already taken place and will take place in the future nor does it inquire into the narrowness of the prompts and resulting AI-generated outputs. As AI advances to undertake more complex analysis, it will still never fully operate without human intervention.
If the CIPO does implement a more substantive review process for copyright registration, we urge the agency to avoid drawing similar rigid conclusions that mischaracterize the role of AI as a creator rather than a tool for creation, which requires human intervention to operate. Under a more substantive review process, the CIPO should consider the amount and level of “human authorship” rather than the amount of content generated by GAI when making registration determinations. We urge the CIPO to avoid broad tests that do not adapt with the onset of advanced and emerging technologies. Human authorship should be the threshold issue when determining copyright registration and should be determined on a case-by-case basis. Canada’s copyright registration system should not disregard the importance of allowing its stakeholders to utilize advanced tools, like GAI, that incent copyrightable intellectual and creative human expressions.
Infringement and Liability regarding AI
1. Are there concerns about existing legal tests for demonstrating that an AI-generated work infringes copyright (e.g. AI-generated works including complete reproductions or a substantial part of the works that were used in TDM, licensed or otherwise)?
Some stakeholders have expressed misguided concerns about the effectiveness of existing copyright laws and tests (i.e., fair dealings). These concerns are born out of growing pains caused by novel copyright disputes surrounding the use and TDM activities of AI. We urge GOC to refrain from modifying current copyright laws or developing new regulation without assessing all stakeholder concerns and allowing courts to make determinations on these issues. And in the interim, we encourage the GOC to empower and require the CIPO to provide stakeholders with a working guidance on copyright implications of AI.
2. What are the barriers to determining whether an AI system accessed or copied a specific copyright-protected content when generating an infringing output?
The current barrier to determining copyright infringement by AI systems is the lack of guidance framework for AI providers and its users. If GOC can provide stakeholders with a clearer understanding on how AI impacts the infringement analysis and what steps are necessary to reasonably mitigate such infringement, it will be in a better position to assess if such infringement has occurred.
In its guidance, GOC should consider how the scope of training datasets might affect the infringement analysis. Whether developing copies of training datasets for AI is fair dealings will depend on the type of AI and its training process. GAI is different from its predecessors in the way it gathers, stores, and processes data. However, courts across jurisdictions have provided significant guidance to show that the extraction and use of large datasets, including copyrighted material, for learning purposes leans towards a finding of fair dealings (or an equivalent analysis) in many circumstances. Still, a fact-sensitive component for a fair dealings analysis is imperative to maintaining a just and successful copyright system. We encourage GOC to support a flexible guidance on a fair dealings analysis that makes clarifications to the fair dealings analysis as it relates to TDM activities for AI systems.
3. When commercialising AI applications, what measures are businesses taking to mitigate risks of liability for infringing AI-generated works?
We are not aware of specific strategies that AI providers are utilizing in order to avoid liability for copyright infringement of AI-generated works, who are still unclear about when TDM activities constitute infringement. For this reason, we urge GOC to provide a working guidance on for AI providers and their users to take reasonable steps to mitigate and avoid copyright infringement.
4. Should there be greater clarity on where liability lies when AI-generated works infringe existing copyright-protected works?
As discussed above, GOC should consider developing a working guidance addressing AI-generated works and Canadian copyright law. Such an AI guidance should not be final or narrow while stakeholder concerns and court disputes are still being considered.
5. Are there approaches in other jurisdictions that could inform a Canadian consideration of this issue?
Canada should develop its own liability regime based on the concerns of its stakeholders and developing jurisprudence on AI. Other countries are similarly gathering input and considering what actions to take now, which can also be informative to GOC’s efforts. At this time, we would not recommend that GOC consider the liability regime of any one country, even if legal and policy mechanisms are similarly structured to Canada’s copyright framework.
Comments and Suggestions
N/A
ACTRA (Alliance of Canadian Cinema, Television and Radio Artists)
Technical Evidence
How does your organization access and collect copyright-protected content, and encode it in training datasets?
Not Applicable.
How does your organization use training datasets to develop AI systems?
Not Applicable.
In your area of knowledge or organization, what measures are taken to mitigate liability risks regarding AI-generated content infringing existing copyright-protected works?
Not Applicable.
In your area of knowledge or organization, what is the involvement of humans in the development of AI systems?
Not Applicable.
How do businesses and consumers use AI systems and AI-assisted and AI-generated content in your area of knowledge, work, or organization?
The Alliance of Canadian Cinema, Television and Radio Artists (“ACTRA”) currently does not use AI in its internal systems; however, in the course of business some staff use AI services such as Adobe Suite, Chat GPT, or Visme. These AI services are used by staff to facilitate ACTRA’s day-to-day operations.
Text and Data Mining
What would more clarity around copyright and TDM in Canada mean for the AI industry and the creative industry?
ACTRA’s membership is comprised primarily of performers in the audiovisual space, whose performances are often captured in video and sound recordings. TDM activities frequently include such media, incorporating large quantities of audiovisual data in datasets used to train generative AI tools that are subsequently used to generate or supplement audio and visual media. While additional clarity around copyright and TDM in Canada would be helpful, there is a substantial gap in Canadian copyright law that would need to be addressed to protect audiovisual performers: moral rights.
Moral rights are those rights that deal with the identification of performers in a performance and their right to object to any distortion, and to maintain the integrity of, their work. Currently, infringement of moral rights in copyrighted performances (e.g. a film production) would be left to the producer of such work to dispute, without necessary regard to the interests of the performers.
ACTRA believes that performers of audiovisual performances should have equivalent moral rights. Granting such moral rights would enable performers to exercise three fundamental rights regarding the use of their performances obtained via TDM for AI applications: consent, control and compensation.
Are TDM activities being conducted in Canada? Why or why not?
The datasets that AI developers are leveraging through their TDM activities, like many activities in the digital realm, are not confined to particular jurisdictions. This is especially true in the AI space, where the fast pace of development has resulted in regulators reacting rather than addressing these issues proactively. In addition, Canada is a leading jurisdiction in the research and development of AI systems. As a result, it is a certainty that TDM activities are being conducted both in Canada and on Canadian data.
ACTRA highlights this issue, as allowing the use of audiovisual performances in TDM activities, combined with the non-existent protection (via moral rights) for audiovisual performers, subjects performers to risks without regulation and effective oversight. This is inconsistent with fundamental Canadian values, as vulnerable arts workers need to be protected in this rapidly changing industry.
For example, AI systems trained through TDM activities can create synthetic media such as deep fakes (whether AI-assisted or AI-generated), which could not be created with the performers’ “inputs”. These deep fakes result in uncanny replications of a performer’s voice, likeness and mannerisms. Performers should have consent rights regarding, and be compensated for, the development and use of such deep fakes.
Are rights holders facing challenges in licensing their works for TDM activities? If so, what is the nature and extent of those challenges?
As noted above, audiovisual performers do not receive adequate copyright protection for their performances. Without this protection, performers are left to rely on collective bargaining agreements (or other contractual protections if they are not represented). Many performers do not have access to sophisticated legal counsel that would otherwise be able to help them navigate the intricacies of their contractual arrangements and ensure they are adequately protected.
Performers also face technical difficulties, as the media in question (audio and visual production) often implicates the rights and interests of a diverse group (for example, many performers appearing in a scene or recording together). Without clear regulatory guidance, AI system developers will be able to craft arguments and otherwise rationalize their infringing use.
What kind of copyright licenses for TDM activities are available, and do these licenses meet the needs of those conducting TDM activities?
ACTRA does not provide for any licenses for TDM activities and is not aware of any of its members providing such licenses.
If the Government were to amend the Act to clarify the scope of permissible TDM activities, what should be its scope and safeguards? What would be the expected impact of such an exception on your industry and activities?
If the government were to amend the Act, ACTRA submits that moral rights should be extended to audiovisual performers, which would provide them with the necessary means to protect their performances (and thereby, their livelihood and other interests). We would also request that no exceptions be made to apply to such moral rights.
Should there be any obligations on AI developers to keep records of or disclose what copyright-protected content was used in the training of AI systems?
There is a need for AI developers to maintain records of, and disclose, the copyright-protected content that was used to train their AI systems. There is a clear need for this transparency, particularly with respect to generative AI systems, as these systems will be in direct competition with the performers’ whose data was used to train them. Accordingly, performers should have a mechanism to future-proof their performances, own their own AI datasets, and maintain control over their voice, image and mannerisms – transparency regarding the use of such information is a necessary first step towards these protections, as it would enable them to identify infringing uses.
What level of remuneration would be appropriate for the use of a given work in TDM activities?
It is neither feasible nor appropriate to suggest firm guidelines regarding remuneration at the outset; rather, adequate protection and transparency should be provided, which would enable a free market approach to licensing fees for the use of performers’ works in TDM activities.
Are there TDM approaches in other jurisdictions that could inform a Canadian consideration of this issue?
The European Union passed the AI Act on June 15th, 2023, which proposes different rules for different risk levels. Generative AI is considered in the High Risk category. Members of the European Parliament consider High-Risk AI as those that pose any significant risk to a person’s health, their rights or a threat to the environment. EU agrees that all Generative AI must disclose that content was AI generated and comply with transparency regulations. They are formulating a policy and, in doing so are consulting with the cultural sector (which represents 4.4% of the GDP and 7.5 million jobs) that is calling for this transparency.
In the USA Congress member Deborah Ross has introduced changes to the Protect Working Musicians Act to protect independent artists from being exploited by music streaming platforms and AI developers. The proposed bill would allow independent music artists to collectively negotiate with streaming services and AI developers.
The UK has constructed a pro-innovation approach, with a reactive framework designed to build and learn from experience and adapt to develop regulation. The regulatory framework is underpinned by 5 principles to guide and inform the use of AI. The five principles are:
1. Safety, security and robustness,
2. Appropriate transparency and explainability,
3. Fairness,
4. Accountability, and
5. Contestability and redress
These principles are to be implemented by existing regulators, and UK government does not intend to develop a statutory regime at present, but collaborate with the regulators and track progress as AI develops.
The EU copyright directive of 2019, Article 4 provides an exception or limitation to rights for text and data mining. France has recently opted out of a European Union exception in content ingestion via text and data mining. The French performing rights organization SACEM announced that they have chosen to opt out of a data mining exception that exists in the 2019 copyright directive. Users must first apply for permission to SACEM before being supplied with the works of their 210,800 authors and composers for AI learning.
Authorship and Ownership of Works Generated by AI
Is the uncertainty surrounding authorship or ownership of AI-assisted and AI-generated works and other subject matter impacting the development and adoption of AI technologies? If so, how?
Regulatory uncertainty – including uncertainty regarding the application of copyright laws to AI-assisted and AI-generated works – is impacting the development of AI technologies. Without regulatory certainty, including clarity regarding performers’ rights, performers (including those represented by ACTRA) and AI developers are inherently at odds. Greater regulatory certainty would enable greater cooperation among these groups, for the benefit of all involved.
Should the Government propose any clarification or modification of the copyright ownership and authorship regimes in light of AI-assisted or AI-generated works? If so, how?
The Government needs to extend the definition of performance so that it is no longer tied to pre-existing works but also covers the representation of unprotected AI creations. If a performer performs a work created entirely by Generative AI, this performance must enjoy the same protections.
ACTRA champions the concept of the three C’s and asserts that performers must have Consent, Control and Compensation for their likeness, voice or image to be used in any form of AI.
ACTRA members’ likenesses have already been exploited in deepfakes, where their faces are imposed on someone else’s body or they are put in pornographic content doing and saying things they would never do, creating serious reputational harm and economic harm. AI technology must evolve in a way that respects human inspiration, creativity and ingenuity.
These principles should be incorporated across Canada’s AI-related legislation – whether direct legislation, like the Artificial Intelligence and Data Act (“AIDA”), as well as incidental legislation, like amendments to the Copyright Act. An acknowledgement of the need to protect core, enduring human values (i.e., those that aren’t easily quantifiable) should be consistent across all such legislation.
For example, as noted in ACTRA’s previous submissions regarding AIDA, AIDA’s current definition of harm considers three forms of loss, (physical/psychological, economic, property). So if it is acknowledged that economic loss is a legitimate harm, it follows that damage to an individuals’ reputation requires protection as employment opportunities are directly related to the same. As work is dependent on our reputation. Accordingly, we submitted that the definition of harm should be expanded to include damage to an individual’s reputation or dignity.
Further, we recommended a broader definition of personal information that includes an individual’s personality rights, which means their likeness, image, persona and voice. And to prevent the unauthorized use of a performer’s likeness, image or voice, any exploitation of an individual’s personality rights would necessarily require consent.
Are there approaches in other jurisdictions that could inform a Canadian consideration of this issue?
In the United States, a Washington federal court upheld the US Copyright Office’s belief that only works created by human authors can receive copyright protection. The case was initiated when computer scientist Stephen Thaler challenged the Copyright Office’s ruling on behalf of his AI DABUS System. Thaler applied to the US Copyright Office in 2018 seeking copyright protection for an AI created piece of visual art entitled “A Recent Entrance to Paradise” and was rejected. Judge Beryl A. Howell found the work ineligible as it was “absent of any human involvement”, which she said is a “bedrock requirement of copyright”.
The EU AI Act has yet to establish authorship of AI-generated works, yet it was established that companies that created AI-generated content must disclose and copyrighted material that was used to develop the AI system.
United Kingdom legislation from 1988 claims that computer-generated works are eligible for copyright protection and the author/owner of the technology is held as the owner of the work. Stephen Thaler has also applied for intellectual property protection for his AI-generated works in the UK and other jurisdictions worldwide. Various courts have ruled against him claiming he can’t patent something that wasn’t human-created. In the UK, Thaler’s initial appeal was dismissed at the High Court of Appeal, and he has now appealed to the Supreme Court and is awaiting judgement.
Infringement and Liability regarding AI
Are there concerns about existing legal tests for demonstrating that an AI-generated work infringes copyright (e.g., AI-generated works including complete reproductions or a substantial part of the works that were used in TDM, licensed or otherwise)?
It is likely that the concept of “fair dealing” will be used as a defence for copyright infringement regarding the use of copyright-protected works as the input in TDM activities.
For example, the infringing activity may be claimed to constitute “fair dealing” as it is used for “research purposes” (i.e. the development of a foundational model, many of which started out as academic endeavours). Similarly, any single instance of copyright infringement, given the size of many datasets used in TDM activities, would support this argument. This argument has not been tested in court, but there has also been a lack of guidance from the Canadian Intellectual Property Office on how such principles would apply in the context of TDM activities of generative AI generally.
What are the barriers to determining whether an AI system accessed or copied a specific copyright-protected content when generating an infringing output?
The barriers include the fact that data mining utilizes hundreds of thousands to millions of copyrighted works to train an algorithm, which then creates various outputs. While there are instances of “memorization”, or an AI application generating an output that is nearly identical to one of its copyrighted inputs, it is almost impossible to establish all the content used to create an AI output. This is partially a function of the nature of an AI model, which relies on TDM-based training to adjust the various “weights” and “biases” (also known as “parameters) within the model, which, as a result of the statistical methods used by these models, can produce innumerable unique outputs for the same input.
This issue is at the forefront of the litigation between Getty Images and Stability AI (creator of Stable Diffusion, a generative AI model), in which Getty has claimed that Stability AI infringed upon their image collection on a “staggering scale”. Getty Images has filed lawsuits in both the US and UK courts, the outcome of which is likely to aid in determining what defines infringement of copyright by AI.
When commercialising AI applications, what measures are businesses taking to mitigate risks of liability for infringing AI-generated works?
While ACTRA is not familiar with such measures being taken, it appears as though businesses are taking few to no measures to mitigate their risk of copyright infringement.
Should there be greater clarity on where liability lies when AI-generated works infringe existing copyright-protected works?
Yes. Take, for example, the case of a performer’s voice and likeness being used for a pornographic plug-in for Skyrim. In this case, Ubisoft is not directly infringing any copyright interests, yet their open-source policy has enabled it and they are receiving a boost to their platform as a result. This is not a clear direct infringement, yet it is still damaging to our member's reputation and ability get future work, and is demeaning and distressing for individuals who are violated in this way, resulting in the loss of dignity.
Are there approaches in other jurisdictions that could inform a Canadian consideration of this issue?
As noted above, there are several pending court cases where issues around copyright infringement in AI development are being put squarely before the courts. In addition, under the proposed EU AI legislation, providers of foundation models would be required to document and make publicly available a sufficiently detailed summary of the use of training data protected under copyright law.
Comments and Suggestions
Are there any other considerations or elements you wish to share about copyright policy related to AI?
As AI development continues to advance, we should be reconsidering the context in which our laws – including copyright and privacy – were developed. ACTRA’s position, as set out in our recent submissions regarding AIDA, is that both privacy and copyright interests are implicated by generative AI, particularly in the audiovisual performance space. These implications go beyond performers, however, and are relevant for any individual with an internet presence, who will similarly be exposed to risks associated with the unauthorized use of their name, image and likeness. Set out below are the amendments to Bill C-27 that ACTRA proposed in our recent submissions for your review and consideration.
ACTRA Toronto
Technical Evidence
In the film, television and digital media industry, we have already seen a proliferation of generative AI digital replicas used to replace human performers. In dubbing into English, producers are using AI to translate foreign language content into English (and vice versa). They are also able to change the mouth shape of the performer to match the new language. This puts voice over performers out of work.
In film & tv, we are already seeing deceased celebrities being brought back, or living celebrities de-aged. This work used to be done through prosthetics and is putting make-up and special fx artists out of work. We are also seeing the replacement of background performers or extras with digital replicas. Either scans of existing performers or new generative AI doubles are causing a large reduction in work opportunities for these performers.
Text and Data Mining
The use of data scraping when it comes to using performers NIL (Name, image, likeness & persona) is rampant in the film & television industry. AI data mining occurs when companies use existing footage of a performance and use that to train AI systems. Ideally, the government would solidify NIL rights under Copyright law so that a performer has true ownership over their “brand”. Their voice print, image, likeness and persona are as unique as their fingerprint, and they should hold copyright over the use of those. Another term for this would be “personality rights” or “rights of publicity”. The provinces of British Columbia, Manitoba, Newfoundland and Labrador, and Saskatchewan have enacted privacy legislation dealing with personality rights, which have the following traits:
- An appropriation of personality can be achieved through the use of a person's name, likeness, or voice (but British Columbia has a more restrictive definition).
- The plaintiff must be identified or identifiable by the use made of their persona.
- An action for the appropriation of personality can only succeed where the defendant intended to commit the wrong (but British Columbia has no "intention" requirement).
- The defendant's use of the plaintiff's persona must have resulted in a gain or advantage for the defendant (but British Columbia has a more restrictive definition, relating only to commercial gain).
- An appropriation of personality is actionable without proof of damages.
- The right of action for appropriation of personality is extinguished upon the death of the person whose privacy was violated.
- The following constitute statutory defences in all four provinces: (i) that the plaintiff consented to the use of his persona; (ii) that the use of the plaintiff's persona was incidental to the exercise of a lawful right of defence of person or property; (iii) that the use was authorized or required under a provincial law or by a court, or any process of a court; and (iv) that the act was that of a peace officer acting in the course of his or her duties. The Manitoba Act provides additional defences.
Quebec has additional provisions in place that we would like to see enshrined across Canada. The Civil Code of Quebec enshrines the right to privacy as an attribute of personality, and specifically says:
36. The following acts, in particular, may be considered as invasions of the privacy of a person:
(1) entering or taking anything in his dwelling;
(2) intentionally intercepting or using his private communications;
(3) appropriating or using his image or voice while he is in private premises;
(4) keeping his private life under observation by any means;
(5) using his name, image, likeness or voice for a purpose other than the legitimate information of the public;
(6) using his correspondence, manuscripts or other personal documents.
The Supreme Court of Canada also affirmed that under Quebec's Charter of Human Rights and Freedoms privacy provisions, a photographer can take photographs in public places but may not publish the picture unless permission has been obtained from the subject, except where the subject appears in an incidental manner, or whose professional success depends on public opinion. The relevant provisions of the Charter are:
4. Every person has a right to the safeguard of his dignity, honour and reputation.
5. Every person has a right to respect for his private life.
We would like to see these enacted federally.
Authorship and Ownership of Works Generated by AI
We firmly believe that their should be no ability to hold copyright over AI generated works. Lack of ownership would ensure that the film & tv industry was hesitant to use generative AI, as the producers/studios themselves would then not be able to hold copyright over the work. In August 2023, a US judge ruled that AI cannot hold copyright for work it creates and said copyright could also not be transferred from the AI machine to the human entity that was responsible for it. Human authorship should be a bedrock requirement of authorship and copyright. Canadian framework should mirror this belief that AI assisted or generated work cannot be copyrighted.
Infringement and Liability regarding AI
There must be extreme clarity on where liability lies when generative AI infringes on any copyright protected work. This must include NIL & personality rights for performers. A performance, or part thereof, given in one project should never be permitted to be used in any other project without informed consent being provided that is accompanied with appropriate compensation and built in controls and duty of care. The European Commission has some key findings that should help the Canadian government navigate these waters.
Comments and Suggestions
As AI technologies continue to progress at a rapid pace and make incredible advancements, AI stakeholders, courts, policymakers, and the public should keep in mind several key principles when analyzing the intersection between AI and copyright.
1. When formulating new AI laws and policies, it is essential that the rights of creators and copyright owners be respected.
2. Long standing copyright laws and policies must not be cast aside in favor of new laws or policies obligating creators to essentially subsidize AI technologies.
3. Education is paramount in the AI space. Those leading AI projects are aware of the legal implications of using copyrighted works input material, and those that arise from AI-generated output
AI Impact Alliance
Preuve de nature technique
N/A
Fouille de textes et de données
Faute de place dans la section Commentaires, j'ajoute une mise en contexte ici.
À l’ère de l’IA et peut-être tout surtout depuis les développements disruptifs en IA générative, la définition d’ «Art», et conséquemment de qui peut être reconnu comme artiste, est bousculé et, dans certains contextes, côtoie de plus en plus près celle de l’IA générative. Ceci a un impact sur l’éligibilité à se prévaloir de financement auprès des organismes artistiques et culturels, sur l’allocation de budgets (financement public) et de financement de projets (bourses, prêts, etc). L’allocation de fonds traditionnellement alloués à des artistes reconnus par des pairs via un processus géré par des organismes culturels indépendants du gouvernement (arm length arts organizations), pourrait se voir alloués à des technologues (programmeurs). Ces fonds favorisent traditionnellement un retour sur investissement (ROI) public qui contribue de façon importante à l’économie canadienne, mais aussi à la fibre sociale (Social Return On Investment) essentielle pour contrer les effets de la crise de la mésinformation et la polarisation. Les politiques de financement culturelles adoptées par ses organismes visent à contribuer activement à la Réconciliation, une priorité exprimée par le Conseil consultatif sur l’IA du Canada lors de nos rencontres. Il est donc important lors de la rédaction du rapport final d’éviter de confondre « œuvre » et « résultante algorithmique », « programmeur » et « artiste ».
La mutation de la définition de l’Art s’observe entre autres dans les conférences sur l’IA où les scientifiques en sciences informatiques (IA) se prononcent de plus en plus sur cette définition (NeurIPS, ACM, etc), et ce parfois en défense des artistes, mais sans en connaître les impacts sur les politiques culturelles et économiques plus globalement. (Ex : https://arxiv.org/abs/2306.04141) Ce soudain intérêt de ces conférences pour définir ce qu’est l’art n’est pas désintéressé et risque d’ouvrir une brèche à la formation de politiques culturelles légitimes et démocratiques.
À Montréal en juin dernier, Deepmind (Google), un partenaire du Mila, m’a invité à me joindre à un projet financé par le Mila (fonds publics) en « art » génératif qui se concluait avec des recommandations en politiques publiques. J’ai refusé et lancé la pétition Art Impact AI qui a été signée par près de 2000 personnes demandant entre autres la fin de type de pratique de lobbying/capture réglementaire. https://www.change.org/ArtXAIConversation
La métamorphose de la définition d’art a aussi un impact sur le droit de se prévaloir l’exception pour usage « artistique » au sens de la loi sur la protection des renseignements personnels. Toute modification à loi sur le droit d’auteur devra être harmonisée avec le projet de loi C-27, si celui-ci est adopté. La partie 1 du PL C-27 (article 38) réitère une exception déjà existante dans LPRPDE stipulant qu’une “Organisation peut recueillir les renseignements personnels d’un individu, à son insu ou sans son consentement, lorsque la collecte est faite uniquement à des fins journalistiques, artistiques ou littéraires.”
Il s’agit d’une exception jusqu’ici peu utilisée, mais, dans un contexte d’économie numérique et créative dont la croissance est notable, son utilisation dans le développement de systèmes d’IA nous met face à des questions importantes. En jurisprudence canadienne, l'exception pour “fins artistiques” est rarement portée à l’attention de la Cour, mais lorsqu’elle l’a été, on retrouve une cause où Google argumente pour obtenir une exception pour fins journalistiques (refusé) et une où est accordée une architecture de données géologiques a été reconnue par la Cour comme un art. Ceci pourrait mener à des situations où des données personnelles sont colligées et monétisées sans le consentement d’une personne dans le but d’entraîner un système d’IA générative si celui-ci a des finalités artistiques, littéraires ou journalistiques. Combinée avec une modification à la loi qui facilite la FTD, cette mutation de la définition de l’art ouvre la porte à des utilisations malveillantes des données personnelles.
NBP: Voir la décision portant sur l’Affaire intéressant un renvoi soumis au cours d’une enquête menée par le Commissaire à la protection de la vie privée du Canada sur une plainte entre le Commissaire et Google (LCC), Cour fédérale, Ottawa, 2021, et celle où la Cour reconnaît une base de données sismiques conçu par des géologues comme une création “artistique".
Titularité et propriété des œuvres produites par l’IA
Le document au soutien de la consultation nous rappelle qu’en vertu du droit canadien, « Le code logiciel d'un système d'IA peut être protégé par le droit d'auteur. » Le rapport poursuit : « des programmeurs peuvent mettre au point une application d'IA ayant la capacité de créer des « œuvres. (…) Ces programmeurs auraient peut-être entraîné l'IA à reconnaître la valeur artistique en lui donnant de multiples exemples d'œuvres artistiques, et l'auraient programmée pour produire ses propres œuvres artistiques originales. » La consultation fait appel à des contributions permettant si, et comment, il est possible de distinguer l’IA générée (visuel, son, texte) de l’art générée par un humain avec l’assistance de l’IA.
Clarifions qu’un programmeur qui n’est pas reconnu aussi comme artiste par un organisme également reconnu dans le secteur des arts et de la culture n’est pas un artiste. Sans cette reconnaissance et validation de son statut, il/elle/iel ne peut entraîné un système d’IA à reconnaître une valeur artistique. Il ne peut non plus « donner des exemples » à un système d’IA, à moins qu’il ait fait ses propres œuvres (sans utiliser une IA générative) ou ait eu la permission pour utiliser celles d’autres artistes. Ce qu’il produit avec son système d’IA n’est pas une œuvre, mais plutôt un résultat de traitement algorithmique.
De plus, il y a une grande différence entre une production de masse (Dall-E, MidJourney, Bard, et le nouveau de Meta, etc-aucun Canadien) et une production à petite échelle (artistes qui travaillent en collaboration avec des programmeurs indépendants ou qui sont eux-mêmes aussi programmeurs). Selon la jurisprudence canadienne sur le droit d'auteur, un auteur doit être une personne physique qui exerce son talent et son jugement dans la création de l'œuvre, reflétant le fait que la Loi lie la durée de protection à la vie et à la mort d'un auteur. La production de masse résultant de plateformes d’IA génératives ne correspond pas à l’esprit du législateur lors de l’adoption de la loi sur le droit d’auteur ni à son interprétation par nos tribunaux. Ces plateformes facilitant l’accès à des systèmes d’IA ne soutiennent pas l’innovation, un objectif important du droit d’auteur.
Enfin, non seulement, doit-on se demander si l’œuvre est originale, mais on doit se demander QUI est-ce que la loi sur le droit d’auteur vise vraiment à protéger.
« Bien que les œuvres assistées par l'IA, contrairement aux œuvres générées par l'IA, semblent mieux convenir à la titularité, la vaste gamme de technologies d'IA et les divers degrés d'apport humain impliqués posent des problèmes pour déterminer quels auteurs et/ou combien de contributeurs sont les auteurs appropriés et premiers propriétaires d'une telle œuvre. » Rapport ISDE. La solution proposée par ISDE face à cette difficulté est de réexaminer la façon de définir un auteur, ou de ne pas se fier à sa titularité ? Si oui, je suis en désaccord.
L'incertitude entourant la titularité a une incidence négative sur le développement et l'adoption d'applications d'IA dans le secteur des arts et de la culture, et ce malgré un intérêt pour saisir les bénéfices et opportunités créatives que présentent l’IA et L’IA générative (voir le rapport Art Impact AI : Observations et recommandations, 2020 : https://allianceimpact.org/art-impact-ai-observations-recommendations/?lang=en)
Comme artiste, j’utilise un nombre important de plateformes et de logiciels qui intègrent l’IA et les ententes d’utilisation sont un fardeau à gérer. J’en limite l’utilisation à des projets artistiques exploratoires et sans but lucratif. Une loi claire qui protège les artistes me redonnerait un souffle d’enthousiasme.
Peu importe l’approche adoptée, la distinction entre les et les œuvres générées par l'IA devra se faire éventuellement d’une façon ou d’une autre que ce soit pour des raisons de sécurité (fausses nouvelles) ou la sécurité économique des artistes. L’encadrement de celle-ci devrait être mené par les organismes pilotes comme les Conseils des arts. La question de la rémunération adéquate pour les artistes dont les œuvres sont utilisées également.
Le droit d'auteur et la titularité ne s'appliquent qu'aux œuvres créées par des êtres humains, qui peuvent être assistées par l'IA, et aucun droit d'auteur ne peut subsister dans une œuvre créée sans qu'un être humain participe d'une façon significative à la création de l'œuvre.
B. Une approche envers les œuvres générées par l'IA qui les rend inadmissibles au droit d'auteur serait-elle faisable ou souhaitable pour le Canada? Une telle approche faciliterait-elle et stimulerait-elle l'utilisation de l'IA dans la création humaine d'œuvres? NON.
C. Une approche « sans auteur » envers les œuvres générées par l'IA serait-elle faisable ou souhaitable pour le Canada? Serait-il possible d'attribuer la propriété d'une œuvre générée par l'IA à une personne responsable du travail? Si oui, quels sont les critères appropriés pour identifier cette personne?
Si la personne « responsable du travail n’est pas un artiste, l’impact d’une telle approche sera négatif pour les artistes (seulement les humains sont des artistes !). Les industries créatives sauront s’approprier une part du marché, mais comme le Cirque du Soleil et C2 ils risquent d’être achetés par des intérêts étrangers. À moins d’une transformation radicale de notre modèle économique vers une économie sociale (partage des communs, etc.), dans les faits, cette approche ne bénéficiera qu’une minorité d’entreprises.
Au sein du secteur culturel, le concept d’une fiducie de données à finalité sociale a été évoqué et serait à explorer avec les parties prenantes, car c’est le seul modèle juridique et économique, à ma connaissance, qui puisse être considéré dans cette approche (en amont et non pas APRÈS une modification à la loi et une majorité des gestionnaires de la fiducie devraient être dans un rôle actif au sein du milieu artistique et culturel).
Violation et responsabilité en matière d’IA
N/A
Commentaires et suggestions
La prémisse de cette consultation est que « le droit d'auteur au Canada vise à favoriser un marché adapté aux besoins changeants des utilisateurs, tout en continuant d'offrir aux créateurs les droits dont ils ont besoin pour encourager l'investissement et la création d'emplois dans l'ensemble de l'économie ». Rappelons toutefois que le droit de la propriété intellectuelle, dont fait partie le droit d’auteur, comprend les moyens de protéger les expressions créatives de l'intellect qui ont une valeur commerciale et morale, et ce pour tous les secteurs de l’économie canadienne, y compris celui des arts et de la culture. Il vise à encourager le processus créatif et promouvoir l'investissement en garantissant aux investisseurs (publics ou privés), un retour sur investissement. Puisque toute innovation technologique de cette envergure devrait être accompagnée d’innovation sociale, un retour social sur investissement en IA est également à favoriser.
Une entente commune sur ce que sont les objectifs stratégiques, et les objectifs prioritaires de la loi sur le droit d’auteur devrait être faite en collaboration avec le secteur des arts et de la culture et tenir compte des implications genrées et régionales de l’adoption de l’IA. De plus, l’étude des impacts d’une modification à la loi sur le droit d’auteur doit se faire à la lumière d’une stratégie d’égalité des genres en économie numérique.
Le profil des travailleurs, des professionnels, des entrepreneurs et des investisseurs actifs au sein des industries créatives et numériques est différent de celui des artistes et professionnels des arts et de la culture. Ces derniers sont plus présents dans des regroupements et organismes culturels à but non lucratif ou à mission sociale. Cette distinction est importante, car les femmes et les personnes en région n’auront pas un accès égal ni équitable aux bénéfices de ces investissements.
Les femmes représentent une petite minorité des programmeurs d'IA. Cette Disparité entre les genres dans le domaine de la formation en IA est un problème important, car elle limite la diversité et l'inclusivité au sein de l'industrie, conduisant potentiellement à des algorithmes d'IA biaisés et une sous-représentation des points de vue féminins. Ces biais peuvent conduire à des résultats discriminatoires dans les applications de l'IA, affectant divers aspects de la société, notamment l'emploi, les soins de santé, etc. Il cause également un accès inégal au potentiel économique que représente l’IA. En effet, les femmes constituent une petite minorité de propriétaires dans les entreprises de l’IA générative. Ce manque de représentation des femmes aux postes de propriété dans l'industrie de l'IA limite leur pouvoir de décision et influence sur l'orientation des technologies de l'IA. De plus, les emplois des femmes, et ceci est vrai également dans le secteur des arts et de la culture, comptent plus de tâches automatisables et donc sont plus à risque de perte de revenus, affaiblissant leur autonomie économique.
- 1 travailleur canadien sur 26 exerce une profession culturelle et 1 travailleur canadien sur 116 est un artiste. Environ la moitié sont des femmes, plus de la moitié dans certaines disciplines telles que les arts visuels.
- L’histoire coloniale du Canada a eu un impact profond sur les peuples autochtones, leurs langues et leurs cultures, et les artistes autochtones sont beaucoup plus nombreux que les artistes non autochtones à être des artisans et des artistes visuels.
- Les arts visuels étant l’un des premiers secteurs à être affectés négativement par l’IA, les femmes et les artistes autochtones risquent d’être plus durement touchées. Les femmes racisées, trans, queer, ou non-binaires font face à un double risque.
- La fracture numérique affecte plus les femmes que les hommes. https://www.ohchr.org/fr/press-releases/2021/09/gender-digital-divide-reflection-overall-discrimination-faced-women-and
- Les emplois des femmes sont plus susceptibles d’être automatisables par l’IA. https://www.ilo.org/global/about-the-ilo/newsroom/news/WCMS_890740/lang--en/index.htm https://thinktanknumeriquectic.com/rapports/lere-de-demain
Dans le document de consultation, l’ISDE écrit : « Les utilisateurs peuvent également utiliser la même application d'IA, fournir des données supplémentaires et utiliser l'application pour générer des œuvres. L'utilisateur peut demander à l'IA de générer plusieurs œuvres, puis organiser ces œuvres pour en choisir une en particulier qui répond à certaines normes artistiques. De plus, l'utilisateur peut modifier l'œuvre sélectionnée générée par l'IA, en ajoutant sa propre contribution artistique. Un utilisateur possédant des connaissances techniques plus poussées peut adapter l'application d'IA, soit directement, soit en fournissant une formation supplémentaire à l'IA, ce qui lui permet de générer des œuvres qui répondent à ses objectifs et à ses besoins particuliers. Ces possibilités, bien que simplifiées, illustrent la variété d'interventions humaines possibles dans les œuvres assistées par l'IA. »
Je voudrais souligner que l’utilisateur, et surtout l’utilisateur expert qui est en mesure de modifier, mettre au point l’algorithme pour répondre à ses intentions artistiques (en faisant par exemple une mise au point d’un système d’IA générative via les RAGs (Retrieval Augmented Generation) risque fort de ne pas être une femme. https://www2.deloitte.com/us/en/pages/consulting/articles/state-of-women-in-ai-today.html).
Le Canada s’est engagé envers l’équité des genres en vertu de plusieurs politiques, notamment la Politique féministe du Canada, et le Programme mondial sur les femmes, la paix et la sécurité. Le FMI a également lancé sa stratégie d’égalité des genres en 2022, invitant les gouvernements à en faire la considération pour relancer une économie prospère et durable. Toute modification à la loi sur le droit d’auteur doit se faire en tenant compte de celle-ci et l’impact très différent de l’IA sur les femmes, les personnes en région et les communautés autochtones et des Premières Nations.
Afin d’ «offrir aux créateurs les droits dont ils ont besoin pour encourager (…) la création d'emplois dans l'ensemble de l'économie », la mesure des impacts devrait être amorcée dès le départ (faire partie des consultations, collecte de données en amont pour bien évaluer l’impact, etc).
- Faire une liste des emplois et professions au sein du secteur arts et culture incluant, mais pas limité aux industries créatives et faciliter l’accès équitable au potentiel de l’IA.
- Dresser un portrait des impacts potentiels pour chaque discipline de pratique ou domaine d’application créative en distinguant Art et Résultante algorithmique (assistée ou non).
- Adopter des politiques conçues en collaboration avec, ou par, les organismes du secteur des arts et de la culture.
Alliance des producteurs francophones du Canada (APFC)
Preuve de nature technique
L’Alliance des producteurs francophones du Canada (APFC) est membre de la Coalition pour la diversité des expressions culturelles (CDEC). Dans le cadre de la consultation sur le droit d’auteur à l’ère de l’intelligence artificielle générative, menée par le gouvernement du Canada, l’APFC a collaboré à l’élaboration du mémoire de la CDEC. Nous appuyons les observations de la Coalition et reprenons, dans ce formulaire, les réponses qui sont pertinentes pour les membres producteurs de l’APFC.
Cette consultation est axée sur l’« IA générative », c'est-à-dire sur des systèmes utilisant des modèles d'apprentissage profond capables de générer des contenus créatifs de haute qualité en se basant sur les œuvres sur lesquelles ils ont été formés. En comparaison, l’« IA traditionnelle » désigne généralement des outils ou des systèmes qui exécutent des tâches spécifiques en se basant sur des règles prédéfinies et des entrées de données. Utiliser l'IA pour aider à rédiger une réponse à un courriel est nettement différent de l'utiliser pour produire une chanson, une illustration ou un poème. Lorsqu'il s'agit de déterminer si des modifications sont nécessaires dans la politique sur le droit d'auteur, il est important de faire une distinction entre les deux. Nous concentrons notre réponse sur cette prochaine génération d'IA.
Nos membres reconnaissent le potentiel de l'IA et explorent les avantages de cette nouvelle technologie. L'IA, tout comme d'autres outils, peut être utilisée pour améliorer et soutenir la créativité humaine lorsqu'elle est utilisée de manière responsable et éthique. Dans les industries culturelles, l'IA est utilisée comme un outil qui soutient – sans remplacer – l'expression originale humaine des œuvres des créateurs. Certains créateurs utilisent l'IA comme un outil dans le cadre de leur processus créatif pour réduire certains aspects fastidieux et répétitifs de leur travail. Les producteurs l'utilisent pour aider à la mise en page, au style, aux effets visuels, à la correction des couleurs et à l'amélioration des détails, entre autres. Lorsqu'elle est utilisée de manière responsable, l'IA peut apporter une valeur considérable au processus créatif. Cependant, lorsqu'elle est utilisée de manière irresponsable, l'IA a le potentiel de sérieusement compromettre et endommager le secteur culturel au Canada et dans le monde entier.
Fouille de textes et de données
En tant que principe général, les développements de l'IA peuvent et doivent coexister avec un système de droit d'auteur qui encourage les créateurs à créer et à diffuser leurs œuvres tout en protégeant les ayants droit. Cependant, les plateformes d'IA générative tirent d'importants bénéfices de l'utilisation non autorisée et de la reproduction d’œuvres provenant notamment des membres de l’APFC.
La fouille de texte et de données (FTD) utilisée dans la formation des systèmes d'IA générative implique la reproduction de grandes quantités de données et d'œuvres protégées par le droit d'auteur. Ces inputs (entrées) dans la FTD sont souvent des œuvres protégées par le droit d'auteur, pour lesquelles aucune licence n'est demandée et aucune compensation n'est versée aux titulaires de droits.
Les productions de l'IA générative posent également des questions fondamentales et existentielles pour le secteur culturel; elles violent souvent les droits d'auteur des créateurs en produisant et en partageant du contenu qui ressemble de près aux œuvres originales, communément appelées "imitations" visuelles et sonores. Cela se produit fréquemment en réponse à des requêtes d'utilisateurs recherchant une telle réplication.
Aussi, les applications de l'IA, y compris la FTD, sont utilisées pour créer des médias synthétiques (deepfakes, hologrammes, répliques numériques, doublures, voix off, personnages virtuels et environnements). Si la production incorpore l'image ou la ressemblance de l'artiste-interprète, il s'agit d'une reproduction d'une partie substantielle de la prestation de cet artiste-interprète et d'une contrefaçon.
Enfin, la production générée par l'IA peut également porter atteinte aux droits moraux des auteurs. Par exemple, si une œuvre est commercialisée comme étant « dans le style » ou « dans le son » d'un auteur particulier, le résultat sera souvent une reproduction « bâtarde », une copie inférieure de l'œuvre de l'auteur. La production contrefaite peut également être utilisée dans des contextes inappropriés (ex. campagne politique). Ces deux exemples peuvent porter un réel préjudice à l'honneur et à la réputation de l'auteur.
Ces types de productions sont en concurrence directe avec le marché des œuvres des créateurs et menacent les moyens d'existence des producteurs, artisans et artistes du Canada.
Toutes ces utilisations, et les atteintes qui en découlent, doivent être prises en compte lors de l'examen des implications de l'IA générative sur la politique du droit d'auteur.
La clarté absolue concernant le droit d'auteur et la FTD au Canada n'est pas nécessairement l'objectif de cette consultation, ni de la politique du droit d'auteur en général, d'autant plus que le marché se développe autour de ces nouvelles utilisations. Il y a de sérieux risques à supposer qu'une nouvelle forme de technologie nécessite automatiquement la création d'une nouvelle exception. Les approches réflexives ne peuvent pas tenir compte de la vitesse à laquelle la technologie de l'IA générative évolue et de l'impact qui en résulte sur les marchés concernés.
En outre, l'introduction d'une nouvelle exception pour la FTD interférerait avec la capacité des utilisateurs et des titulaires de droits à fixer les limites de ce marché émergent. Il serait particulièrement disruptif de la part du gouvernement d'introduire une nouvelle exception pour la FTD alors que des modèles de licence pour l'utilisation d'œuvres, de performances et d'enregistrements sonores protégés par le droit d'auteur dans le cadre de l'IA générative sont en train de se développer et d'émerger.
Compte tenu du marché naissant de l'octroi de licences pour les activités de gestion des droits FTD et des partenariats d'IA générative qui se développent entre les développeurs d'IA et les titulaires de droits, le gouvernement devrait laisser le marché élaborer des solutions de licence basées sur le marché pour les utilisations de la FTD dans l'IA générative.
Ceux qui réclament des exceptions préfèrent faire pression sur les gouvernements du monde entier plutôt que de proposer des solutions fondées sur le marché. Après tout, les solutions basées sur le marché ont parfois un prix tandis que les exceptions sont généralement gratuites.
Un système de retrait (opt-out) exigerait que tous les titulaires de droits d'auteur surveillent chaque plateforme d'IA générative disponible au Canada et envoient une sorte d'avis à chaque opérateur d'IA générative ou développeur d'application pour l'informer qu'il a choisi de « se retirer » de l'exception à des fins de gestion des droits de reproduction. Les titulaires de droits d'auteur devraient d'abord savoir que leurs œuvres, prestations ou enregistrements sonores sont utilisés par l'opérateur d'IA générative ou le développeur d'applications, ou envoyer un avis à chacun d'entre eux. Les titulaires de droits n'auraient pas non plus de recours en cas de copie effectuée avant qu'ils ne se retirent. Il s'agit là d'une charge énorme pour les titulaires de droits d'auteur, qui est tout à fait disproportionnée par rapport à ce problème supposé.
Dans d'autres juridictions, il a été suggéré qu'un régime de licence obligatoire pourrait être approprié pour la FTD. Les licences obligatoires privent les créateurs et les titulaires de droits d'auteur de leurs droits exclusifs d'autoriser la reproduction de leurs œuvres, prestations ou enregistrements sonores en les obligeant à concéder des licences, ce qui les prive d'une compensation équitable pour ces utilisations. De même, il prive les titulaires de droits de la possibilité d'interdire l'utilisation de leur contenu par un service qui pourrait en fin de compte cannibaliser leur propre travail ou qui produit un contenu qui agit comme un substitut de leur travail original. La mise en œuvre d'un tel régime imposerait également aux titulaires de droits d'auteur une charge importante en termes de gestion et d'application. En outre, la mise en œuvre d'une licence obligatoire pour la FTD est une solution à la recherche d'un problème.
Il n'y a aucune raison de conclure que la Loi actuelle est insuffisante pour faire face à toute utilisation qui pourrait survenir en ce qui concerne la formation de l'IA générative. La Loi sur le droit d'auteur est suffisamment neutre sur le plan technologique pour permettre le développement technologique et favoriser l'innovation en IA générative.
Les développeurs et les plateformes d'IA en sont parfaitement conscients : entrer sur un marché implique d'assumer la responsabilité de l'impact de leur nouvelle technologie sur ce marché et les acteurs qui le composent. Les plateformes doivent respecter les droits d'auteur des créateurs et créatrices.
Les nombreuses exceptions prévues par la législation canadienne sur le droit d'auteur ont déjà provoqué un déséquilibre structurel dans la Loi sur le droit d'auteur : un déséquilibre qui prive les titulaires de droits de leur « juste récompense » et qui peut décourager et dissuader les auteurs et les titulaires de droits d'auteur de créer et de diffuser leurs œuvres, leurs interprétations et leurs enregistrements sonores. L'introduction d'exceptions supplémentaires pour les besoins de la TDM ne fera qu'accentuer le déséquilibre recherché dans la Loi sur le droit d'auteur.
Recommandation 1 : Que le gouvernement ne modifie pas les exceptions actuelles pour inclure la FTD ni ne mette en place de nouvelles exceptions pour la FTD.
La compensation et la juste rémunération requises pour l'utilisation d'une œuvre donnée, d'un enregistrement sonore ou d'une performance seront, et devraient être, déterminées par le marché, la Commission du droit d'auteur ou les tribunaux et non par le gouvernement.
Cette question doit faire l'objet de négociations entre les titulaires de droits et les plateformes d'IA générative, ce qui encouragerait une solution basée sur le marché pour la FTD.
D’autre part, l'autorisation et la permission sont aussi importantes que la compensation, en particulier lorsque la production du système peut entrer en concurrence avec l'œuvre originale ou s'y substituer. Là encore, ce sont les négociations de marché et le marché des licences en développement qui devraient trancher ces questions, et non le gouvernement.
De nombreuses plateformes comme Google et Microsoft semblent croire que la formation de leurs systèmes est déjà exemptée ou qu'elle ne nécessite pas d'autorisation, en vertu du droit d'auteur au Canada. Ces positions posent des défis aux titulaires de droits qui souhaitent accorder des licences pour leurs œuvres, leurs interprétations et leurs enregistrements sonores dans le cadre de la FTD.
De plus, les ayants droit n'ont aucune visibilité sur le fait que leurs œuvres ou d'autres sujets ont été utilisés dans la formation de n'importe quelle plateforme d'IA générative. La FTD sur n'importe quelle plateforme est une boîte noire. Cette asymétrie de l'information, et le déséquilibre du pouvoir de négociation qui en résulte, rend la surveillance et les opportunités de licence qui en résultent incroyablement difficiles pour les ayants droit. Dans le meilleur des cas, les transactions de licence sont inefficaces : les titulaires de droits n'ont d'autre choix que de deviner si un système d'IA générative donné a utilisé leurs œuvres ou d'attendre que l'opérateur d'un système les contacte pour obtenir une licence. Dans le pire des cas, on assiste à une défaillance totale du marché, les opérateurs profitant du contenu des créateurs. Ce déséquilibre doit être corrigé.
Recommandation 2 : Que les plateformes d'IA générative soient tenues de se conformer aux exigences de transparence, y compris, mais sans s'y limiter : (i) publier les enregistrements des œuvres, enregistrements sonores et performances protégés par le droit d’auteur qui ont été utilisés par les plateformes ; (ii) concevoir le modèle pour éviter qu'il ne génère des contenus illégaux ou contrefaits ; et (iii) divulguer que le contenu produit par l'IA.
Titularité et propriété des œuvres produites par l’IA
Les questions posées dans la consultation concernant la paternité et la propriété des droits d'auteur dans les œuvres générées par l'IA soulèvent des questions fondamentales pour le secteur culturel.
Bien que la Loi sur le droit d'auteur ne définisse pas explicitement le terme « auteur », la jurisprudence canadienne a déjà rappelé que les œuvres originales protégées par le droit d'auteur doivent être le produit de l'exercice de la compétence et du jugement de l'auteur, qui « ne doit pas être si insignifiant qu'il puisse être qualifié d'exercice purement mécanique ». [CCH vs Barreau du Haut-Canada, [2004] 1. S.C.R. au paragraphe 25].
Des débats sur cette question sont en cours à l'OMPI et dans de nombreuses autres juridictions, notamment aux États-Unis et dans l'Union européenne. Cependant, le consensus international est que la paternité humaine est au cœur du droit d'auteur et que le contenu généré par l'IA sans aucune participation humaine n'est pas, et ne devrait pas être, protégé par le droit d'auteur. La CDCE est d'accord avec ce consensus. Les mêmes principes s'appliquent aux prestations des artistes-interprètes : seules les prestations humaines bénéficient des droits et protections prévus par la Loi sur le droit d'auteur.
L'objectif du droit d'auteur est, en partie, d'obtenir une juste récompense pour le créateur (et d'empêcher quelqu'un d'autre que le créateur de s'approprier les bénéfices générés) et d'encourager la poursuite de la création. À ce stade, il n'est pas nécessaire de modifier la loi sur le droit d'auteur pour créer de nouveaux droits afin d'encourager la création de contenu généré par l'IA.
Accorder des droits d'auteur ou des droits voisins aux systèmes d'IA générative pour des créations autonomes ou mécaniques, sans expression originale d'une idée attribuée à un auteur ou à un interprète humain, ferait passer le régime du droit d'auteur d'un paradigme de protection et de promotion de la créativité humaine à la poursuite de l'innovation et des revenus pour les entreprises de toutes sortes. Cela aurait des conséquences considérables, dont il est difficile d'anticiper l'impact à long terme.
Enfin, il y a quelque chose de pervers et de franchement offensant à suggérer qu'il devrait y avoir une exception aux droits d'auteur et aux droits voisins des auteurs et des interprètes humains pour former les systèmes d'IA générative, tout en offrant à ces mêmes plateformes des protections supplémentaires en matière de droits d'auteur pour les produits générés par des personnes non humaines. Abstraction faite des pertes d'emplois qui en résulteraient dans le secteur, cette perspective de production massive de contenu pseudo-culturel entièrement généré par des systèmes d'IA générative est une préoccupation sociale majeure. La création serait le résultat d'entreprises cherchant uniquement à commercialiser leurs produits en masse et à les rendre rentables, plutôt que d'avoir une multitude de créateurs et d'artistes diversifiés exprimant leurs propres pensées, points de vue, opinions, commentaires et créativité.
Les produits résultant de processus mécaniques de génération d'IA qui manquent d'expression humaine originale ne sont pas des "œuvres" protégées par le droit d'auteur ou par un quelconque droit voisin et ne devraient pas le devenir.
Recommandation 3 : Que le gouvernement n'apporte aucune modification à la Loi sur le droit d'auteur afin d’accorder une protection du droit d’auteur aux contenus générés par l’IA.
Dans le même ordre d'idées, il est important que les prestations des artistes interprètes continuent à bénéficier de droits et de protections tels que ceux dont ils jouissent actuellement en vertu de la loi sur le droit d'auteur, que le contenu sous-jacent soit ou non généré par l'IA.
Recommandation 4 : Que les prestations des artistes-interprètes restent pleinement protégées par la loi sur le droit d'auteur, y compris lorsque le contenu interprété est généré par l'IA.
Violation et responsabilité en matière d’IA
Pour établir une infraction, un ayant droit doit prouver que le défendeur a copié ou mis à disposition la totalité ou une partie substantielle d'une œuvre, d’une interprétation ou d’un enregistrement sonore, que le défendeur a eu accès à l'œuvre, à l’interprétation ou à l’enregistrement sonore original et que l'œuvre, l’interprétation ou l’enregistrement sonore original est à l’origine de la copie. La création indépendante est une défense complète contre l'infraction.
Le plus grand obstacle à la détermination de savoir si un système d’IA a eu accès à ou a copié une œuvre, un enregistrement sonore ou une performance spécifique protégés par le droit d'auteur est le manque de transparence décrit ci-dessus. Sans une certaine connaissance du contenu protégé par le droit d'auteur intégré dans un système d'IA générative, un titulaire de droits qui soupçonne que son contenu a été utilisé sans autorisation ne pourrait que deviner. Dans certains cas, cela conduira à des infractions à grande échelle non détectées ou non prouvables. Il en résultera également un système extrêmement inefficace, dans lequel les titulaires de droits seront contraints de poursuivre les plateformes d'IA générative qu’ils soupçonnent d’avoir enfreint leurs droits d'auteur afin d'obtenir (avec un peu de chance) la divulgation des découvertes, ce qui nécessitera beaucoup de temps, de ressources, d'honoraires d'avocats et d'experts et de dépenses, pour finalement découvrir que la plateforme n'a jamais eu accès au contenu protégé par le droit d'auteur en premier lieu.
Il est nécessaire d'exiger des systèmes d'IA générative qu'ils publient des informations sur les contenus protégés par le droit d'auteur qui ont été intégrés dans les systèmes, afin que les titulaires de droits d'auteur puissent protéger et monétiser leur propriété intellectuelle. Avec la mise en place de ces obligations de transparence, la responsabilité pourrait potentiellement être engagée en cas de violation primaire, secondaire ou d'autorisation de violation, d'habilitation de violation, de violation des droits moraux, de suppression des informations de gestion des droits numériques et de contournement des mesures techniques de protection. Du point de vue de la contrefaçon, la loi actuelle sur le droit d'auteur sera suffisante pour traiter les questions spécifiques à l'IA générative, à condition que ces obligations d'enregistrement et de divulgation soient en place.
Peut-être plus important encore, les exigences de transparence favoriseront également un marché des licences fonctionnel et plus efficace où les titulaires de droits et les utilisateurs pourront négocier sur un pied d'égalité en réduisant l'asymétrie d'information qui existe actuellement sur le marché.
Enfin, le gouvernement doit examiner l'impact de l'IA générative sur les droits moraux des auteurs et des interprètes, y compris leurs droits à l'intégrité de leurs œuvres et de leurs interprétations, ainsi que les droits au nom et à l'image et les droits de la personnalité et de la publicité. Bien qu'elles soient loin d'apporter une réponse complète à ces questions, les obligations de transparence et de divulgation signaleront au moins que les utilisations telles que les deepfakes et les doublages vocaux ne sont pas approuvées par les artistes-interprètes qu'ils imitent.
En fin de compte, l'objectif de cette consultation sur l'IA générative devrait être de promouvoir un marché des licences sain et fonctionnel pour l'utilisation d'œuvres, d'enregistrements sonores et de performances protégés par le droit d'auteur dans le FTD. Les obligations de transparence qui exigent des plateformes d'IA générative de divulguer les registres du contenu protégé par le droit d'auteur qui a été utilisé à des fins de formation - par opposition à la création de nouvelles exceptions - sont le meilleur moyen de garantir que l'IA générative puisse continuer à innover aux côtés d'un système de droit d'auteur qui encourage les créateurs et créatrices à créer et à diffuser leur travail et qui leur offre leur juste récompense.
Commentaires et suggestions
L’APFC appui les autres recommandations formulées par la CDCE pour améliorer la Loi sur le droit d'auteur. Nous nous joignons à la Coalition pour demander que la prochaine réforme du droit d'auteur inclue ces autres recommandations, même si elles ne sont pas soumises à la présente consultation.
Les six recommandations urgentes des membres de la CDEC :
1. Modifier les dispositions relatives à l'utilisation équitable dans le contexte de l'éducation afin qu'elles ne s'appliquent que lorsqu'une œuvre n'est pas disponible dans le commerce en vertu d'une licence accordée par le titulaire des droits ou une société de gestion collective.
2. Intégrer le droit de suite dans la Loi sur le droit d'auteur.
3. Abolir l'exemption de la redevance d'exécution publique pour les artistes-interprètes et les producteurs des stations de radio commerciales.
4. Modifier la définition de l'enregistrement sonore pour y inclure les enregistrements sonores qui accompagnent les œuvres audiovisuelles.
5. Modifier la Loi pour confirmer le caractère obligatoire des tarifs approuvés par la Commission du droit d'auteur.
6. Rétablir le régime de la copie privée dans le secteur de la musique.
Les six recommandations à moyen-terme des membres de la CDEC:
1. Ratifier le traité de Pékin et accorder des droits moraux et économiques aux artistes interprètes sur les supports audiovisuels dans la Loi.
2. Relever les limites supérieures et inférieures des dommages-intérêts statutaires en cas de violation commise à des fins non commerciales et permettre l'établissement de dommages-intérêts supérieurs en cas d'utilisation systématique et massive.
3. Veiller à ce que les ayants droits des divers secteurs disposent des mêmes outils en faisant en sorte que toutes les sociétés de gestion collective puissent réclamer des dommages statutaires de trois à dix fois supérieurs à la valeur du tarif qui n'a pas été payé.
4. Bonifier le régime de la copie privée en autorisant le paiement de redevances pour les ayants droits des secteurs de l'audiovisuel, de la littérature et des arts visuels.
5. Modifier l'exemption prévue à l'article 32.2, paragraphe 3, afin de limiter son application aux actes non motivés par l'appât du gain.
6. Prendre en compte les besoins et les réalités des artistes, créateurs et organisations autochtones.
Bita Amani
Technical Evidence
In addition to various areas of research and development in the creation of diverse and robust AI industries providing a variety of tools and applications, AI systems are used in education, legal practice, automated decision making and adjudication, in legal advocacy, including in facilitating research, generating legal memoranda, and in creating and/or preparing new content and documents for filing with various courts across Canada.
Such use has led to cautionary tales (e.g. Mata v. Avianca, Inc., United States District Court Southern District of New York, 2023) in the absence of necessary due diligence by counsel as officers of the Court in cases where the GenAI has “hallucinated” content, including in fabricating case law citations referenced in documents for submission and filing with a court. As tools improve in accuracy, trustworthiness, and efficacy, that the public in general, and specific users in particular, will make use of technical advancements is both desirable and to be expected where the AI tool is reliable and fit for its stated purpose. GenAI may be used for other forms of content creation (e.g to recreate scenes in litigation), to pattern recognition, and more mundane applications editorial functions.
That artificial intelligence would be put to a range of such uses has been recognized increasingly by courts with a growing number of practice directives (e.g. Supreme Court of Yukon, Provincial Court of Nova Scotia, and the Federal Court of Canada (FCC)). In December 2023, the Federal Court of Canada issued its Notice to the Parties and Profession, The Use of Artificial Intelligence in Court Proceedings (https://www.fct-cf.gc.ca/Content/assets/pdf/base/2023-12-20-notice-use-of-ai-in-court-proceedings.pdf), expressing the expectation by the FCC to be informed by the parties “if they have used artificial intelligence to create or generate new content in preparing a document filed with the Court. If any such content has been included in a document submitted to the Court by or on behalf of a party or a third-party participant (“intervener”), the first paragraph of the text in that document must disclose that AI has been used to create or generate that content.” Further, a Declaration for AI generated content by parties, counsel, and intervenors is required by the Court as per the Notice. The Court recognizes the challenges and opportunities, noting that “AI may offer substantial benefits in the preparation of documents” while also noting that there remain, however, “obligations to maintain the integrity of judicial proceedings, safeguard public confidence in the judicial system, and uphold the rule of law.”
Use of GenAI has the potential to provide greater access to justice for self-represented parties. Still, so as not to be overly inclusive in its scope of application, the Notice only applies to content generated by AI and not e.g. “AI that only follows pre-set instructions, including programs such as system automation, voice recognition, or document editing.” Effectively, this is a disclosure requirement that differentiates GenAI from the productive creative and expressive contribution of a human (and indeed adopts a human in the loop principle to ensure accuracy and trustworthiness in the use of AI documents submitted to the Court). The Court while providing practice guidance also in effect recognizes the vital and growing importance of GenAI tools in the legal system and by different users. In this context, important distinction should be made as between predictive AI (used e.g. in sentencing, and predicting risk and recidivism see e.g. Bita Amani, "AI and Equality by Design" https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3734665) and generative AI, with attention for their respective potential risks for perpetuating biased and discriminatory harms based on training data and its limitations.
Text and Data Mining
The IP Scholars Submission (2021) set out full expectation and recommendation regarding the importance of a TDM exception in Canada that is worth repeating for emphasis and adopting through incorporation by reference. Use of copyrighted works for their informational content for analytical purposes is critical in preserving and advancing the public interest. TDM- as argued- is used on existing data sets to find patterns and such patterns are of important significance, particularly in relation to public goods such as public health, in which the public has a critically vital public interest. Such use of copyrighted works are, as was set out in the IP Scholars 2021 submission non-expressive and non-consumptive copies (at p 8), is in any case consistent with the principle of de minimis non curat lex (as an insubstantial and immaterial use of a work in vast collection of works), and should not constitute prima facie infringement under the law. Moreover, any prima facie infringement would not amount to culpable infringement as it should be captured by fair dealing under the Copyright Act, as a user right, for the purposes of research and private study. This interpretation is consistent with law and policy objectives of the Act as both a balanced approach that preserves the public interest (as per the Supreme Court of Canada in Theberge (para 30)), coheres with the broad and inclusive treatment given by the Supreme Court to research, and is likely to be “fair” under the related 6-fact CCH analysis. For greater certainty, as recommended in the IP Scholars 2021 submission, the legislation should be amended to make the fair dealing exception open-ended by adding the words “such as” prior to the list of enumerated purposes (so that the list is illustrative rather than exhaustive) and TDM should be formally recognized as an allowable purpose under the fair dealing by adding it or “informational analysis” to the illustrative list of allowable purposes. The current submission here repeats the more comprehensive submission made in 2021 to this end.
Authorship and Ownership of Works Generated by AI
Adopting the position of IP Scholars submission (2021), the law should continue to limit recognition of authorship to human authors.
Infringement and Liability regarding AI
N/A
Comments and Suggestions
N/A
American Society of Composers, Authors and Publishers (ASCAP)
Technical Evidence
N/A
Text and Data Mining
N/A
Authorship and Ownership of Works Generated by AI
N/A
Infringement and Liability regarding AI
N/A
Comments and Suggestions
ASCAP is one of the world’s leading music performing rights organizations (“PRO”), currently representing over 950,000 songwriter, composer and publisher members and a repertory of over 19 million copyrighted musical works.
ASCAP receives from its members a global, non-exclusive grant of right to license public performance rights in the copyrighted works known as “musical compositions” on all platforms and services. It does not today license any rights other than those associated with public performances of musical compositions, such as mechanical rights and synchronization rights, and it does not license the copyright in the sound recording (a separate copyright from musical compositions).
ASCAP collectively licenses the non-dramatic public performance rights of its members’ musical compositions on a non-exclusive basis to music users (i.e., licensees) that publicly perform music in virtually every communications media, including internet-delivered audio-only and audiovisual video streaming (both interactive and non-interactive), terrestrial radio, broadcast television, cable and satellite, in-person performances at bars or concerts, as well as background music in stores, fitness centers and dance schools, and many more. ASCAP’s primary business is offering music users “blanket licenses,” meaning that in exchange for a fee, the licensee may use any amount of music in the ASCAP repertoire. The “blanket license” has long been known as the most efficient and cost-effective form of licensing at scale and could be a reasonable form of licensing for AI. Society of Composers, Authors and Music Publishers of Canada (or “SOCAN”) operates as a similar collective licensing organization in Canada.
ASCAP represents not only U.S. writers and publishers, but also hundreds of thousands of non-U.S. writers and publishers through binding agreements that are often reciprocal in nature with approximately 100 foreign Collective Management Organizations (“CMOs”) that cover nearly every country in the world, including an agreement with SOCAN with regard to Canada. Through these agreements, ASCAP is permitted to license in the U.S. the public performing rights in hundreds of thousands of musical works controlled by non-U.S songwriters and composers. When the agreements are reciprocal, ASCAP likewise receives royalties from those foreign CMOs for performances of ASCAP musical works occurring overseas, including for performances in Canada.
ASCAP is the only PRO in the U.S. that operates on a not-for-profit basis. In accordance with ASCAP’s Articles of Association, all dollars collected less expenses (and a broad-approved reserve) are distributed to ASCAP members based on performances of their copyrighted works by licensees—about 90 cents of every dollar collected goes back to ASCAP’s members as royalties, meaning that ASCAP’s current overhead is 10%. All of ASCAP’s competitors in the U.S. operate on a for-profit basis and are owned by U.S. broadcasters, private equity and other investors.
In addition to licensing its members’ work on their behalf, ASCAP enforces its members’ rights when their copyrighted works are performed publicly without authorization. To that end, ASCAP brings copyright infringement lawsuits in U.S. Courts throughout the country regularly on behalf of its members to enforce their rights to be paid.
ASCAP is thus well-positioned to comment on behalf of the nearly one million songwriter, composer, and music publisher members whose rights and livelihoods it protects. Because most ASCAP members are not sound recording artists and accordingly do not have opportunities to be paid for concert tours, merchandise, and related projects, the public performance royalties paid to these members are often their only source of income. In the event that AI platforms usurp this revenue stream, untold numbers of creators stand to lose their ability to make a living.
While generative AI has the potential to enhance human creative efforts, the unchecked use of this technology threatens to undermine the very purpose of the copyright laws by supplanting, rather than supporting, human creative work. Accordingly, the AI industry must be held responsible under all applicable laws—including existing copyright laws and state and federal legal frameworks—to ensure that it does not unfairly and illegally exploit the work of human artists, writers, and other creators. In June 2023, the ASCAP Board of Directors unanimously approved and publicly announced that the following principles should govern the development and use of generative AI.
- Humans First: A vague appeal to “innovation” cannot justify infringing the rights of existing human creators. The copyright laws and other legal frameworks must ensure that human creativity is supported, rather than supplanted, by developing technologies, including generative AI.
- Consent: Developers of AI tools, creators of underlying AI models, and compilers of training datasets must be responsible for ensuring that all relevant rights have been obtained for the use of any copyrighted content included in models or training datasets.
- Transparency: Developers of AI tools, creators of underlying AI models, and compilers of training datasets must be responsible for collecting, maintaining and notifying rightsholders of accurate and comprehensive information regarding all copyrighted content the AI tool or dataset contains, including, where available, all standard industry metadata.
- Compensation: To the extent the AI industry exploits and benefits financially from the creativity and labor of human artists, writers, and other creators, it must compensate these creators fairly for the use of their works.
- Credit: Developers of AI tools must be responsible for labeling AI-generated musical works as such, and must provide credit to the creators whose works are utilized in such generation.
- Global Consistency: Because copyrights to musical works are globally administered through an interconnected structure of international agreements and licensing networks, global consistency in AI regulation is essential to enabling proper exchange of compensation and remuneration across borders. Inconsistencies in international or regional laws and regulations may not only cause operational disruptions but create back-doors to evade legal compliance.
In accordance with these principles, ASCAP believes voluntary collective licensing is the best way to harness the power of generative AI while preserving the livelihoods of creators. Collective licensing has long been a staple in the music industry and has adapted to major technological developments such as an industry-wide shift to digital music consumption at the turn of the millennium. AI will be no exception.
As demonstrated by the hundreds of thousands of businesses that currently license public performance rights from ASCAP, voluntary collective licensing is practically feasible and mutually beneficial for both creators and businesses that derive value from the use of copyrighted musical works. Similarly, the AI industry can and should obtain consent and pay fair market value for copyrighted musical works before using them in the development of AI models. In fact, OpenAI reached a licensing deal with the Associated Press in July this year for the use of the latter’s news archive in the development of generative AI models. Such licensing efforts need to be widely adopted across creative industries.
The main obstacle to voluntary collective licensing is the lack of willingness on the part of AI providers to come to the negotiation table with the creators. AI providers have been operating under the presumption, albeit a false one, that their use of unlicensed copyrighted works for training AI models is legal and somehow a “fair use”. The lack of transparency from AI providers concerning their use of copyrighted works in AI training also makes it extremely onerous for creators to enforce their rights and thus deprives them of meaningful bargaining power.
Therefore, the following measures are necessary to create the relevant incentives that can bring about meaningful voluntary licensing negotiations:
- First, it should be made clear that certain AI-generated outputs may infringe the exclusive rights of copyright owners.
- Second, AI developers should be required to retain information on (1) all copyrighted material present in any datasets compiled by the developer or obtained from a third party; (2) all copyright material actually ingested as training input into any particular model; and (3) for each piece of utilized copyrighted material, the particular training use for which that material was employed, and whether it was used as training, testing, and/or or validation data.
- Third, there should be a requirement that works generated by AI be clearly labeled as such, credit the creators whose works are utilized in the generation and reference the larger database of copyrighted works on which the AI tool was trained.
On the issue of the copyrightability of AI-generated works, this should be determined on a case-by-case basis, taking into account the nature and degree of human involvement. When a human significantly edits, manipulates, or alters the output generated by an AI tool, the resulting material should be subject to copyright protections to the extent the work reflects human creativity. We point you to the recent guidelines established by the U.S. Copyright Office as a foundational basis.
In closing, we wish to emphasize that international consistency is crucial for the licensing of musical works. As PROs across the world—like ASCAP in the U.S. and SOCAN in Canada —cross license their repertories and require uniformity in certain copyright administration rules and systems, it is important to ensure that countries adopt consistent regulations concerning AI. Otherwise, loopholes can develop that can disrupt music use and enforcement of laws in other countries.
Artisti (La société de gestion collective de l'Union des artistes inc.)
Preuve de nature technique
Cette soumission constitue une position commune des associations et société suivantes :
Artisti, une société de gestion collective canadienne représentant divers artistes-interprètes pour la gestion collective de leur droit à la rémunération équitable et leur droit à la rémunération découlant de la copie privée ainsi que tout ou partie de leurs droits exclusifs ;
L’Union des artistes (UDA), un syndicat professionnel représentant les artistes de plusieurs disciplines œuvrant en français ou dans toute autre langue à l’exception de la production faite et exécutée en anglais ;
La Guilde des musiciens et musiciennes du Québec (GMMQ), une association d’artistes légalement reconnue au Québec pour représenter les musiciens professionnels, notamment lors de la négociation d’ententes collectives visant leurs conditions de travail et de rémunération.
Celles-ci voient le potentiel de l’IA à titre d’outil de création : plusieurs de leurs membres s’en servent d’ailleurs comme d’instruments leur permettant de livrer une prestation. Il est néanmoins essentiel d’encadrer l’utilisation de la technologie, particulièrement dans le contexte de la fouille de textes et de données (« FTD »), puisque les prestations des artistes interprètes sont actuellement utilisées à cette fin à leur insu, sans rétribution.
Fouille de textes et de données
Une plus grande clarté et transparence permettraient de mieux appréhender le fonctionnement de la FTD, incluant la façon dont les prestations d’artistes interprètes sont utilisées, ainsi que les rôles et responsabilités des différentes parties prenantes. Ceci permettrait également de déterminer : (i) dans quel(s) contexte(s) l’analyse informationnelle est autorisée, ou non, par le régime actuel de droit d’auteur canadien et ainsi, (ii) quelles licences et rétributions doivent être versées aux titulaires des prestations d’artistes interprètes.
Des activités de FTD sont actuellement menées au Canada, afin d’entraîner des modèles algorithmiques. Les activités de développement et d’entraînement de systèmes d’IA peuvent impliquer la reproduction de contenus protégés par droit d’auteur dont des prestations d’artistes interprètes ou leur voix et leur image hors prestation, et ce, sans qu’ils y consentent ou reçoivent une juste rétribution. Ceci est évidemment problématique et il importe d’y remédier. En outre, il est essentiel que l’autorisation (de type « opt-in » et non « opt-out ») des artistes interprètes soit obtenue préalablement à toute reproduction de leurs prestations, leur voix ou leur image, et qu’une rétribution juste et équitable leur soit versée en contrepartie de cette utilisation. L’obtention de ces consentements devra prendre en compte les particularités de chaque contenu reproduit. Par exemple, dans le cas des prestations fixées, un contentement distinct devra être obtenu auprès des artistes-interprètes si l’autorisation initialement consentie aux producteurs ne couvre pas la FTD, ce qui est le cas pour l’instant.
À cet égard, il est également important de rappeler que les artistes interprètes qui ont consenti à ce que leurs prestations soient intégrées à une œuvre cinématographique ne peuvent présentement pas exercer leurs droits de l’article 15 (1) compte tenu de l’article 17(1) de la Loi sur le droit d’auteur et qu’ils ne peuvent pas non plus bénéficier de droits moraux à l’égard de ces prestations audiovisuelles. Afin de résoudre ces enjeux, le Canada devrait ratifier le Traité de Beijing, ce qui permettrait aux artistes-interprètes audiovisuels d’exercer un meilleur contrôle sur leurs prestations incorporées dans des œuvres cinématographiques.
Les titulaires de droits face à des défis en lien avec en ce qui concerne l’octroi de licences pour les activités de FTD. En outre, il est difficile pour les artistes interprètes de déterminer quel contenu est utilisé dans le contexte de la FTD et quelle est l’ampleur de cette utilisation. Afin de pallier cette lacune, il pourrait être envisagé d’imposer une obligation de transparence ou de tenue de registres auprès des entités développant et entraînant des systèmes d’IA.
Diverses licences sont disponibles pour les activités de FTD impliquant l’exercice d’un droit réservé aux titulaires de droit d’auteur, à savoir la reproduction. Ces licences peuvent être négociées de gré à gré avec les titulaires de droits d’auteurs incluant les artistes interprètes ou être obtenues par le biais d’une société de gestion collective.
En effet, en ce qui a trait aux artistes interprètes, la possibilité de faire des reproductions de leurs prestations aux fins de la FTD n’est généralement pas incluse dans les autorisations qu’ils ont données aux producteurs d’enregistrements sonores ou d’œuvres cinématographiques, ces autorisations visant essentiellement l’exploitation commerciale des enregistrements sonores et des œuvres cinématographiques. Il faudrait donc que des autorisations aux fins de FTD soient obtenues auprès des artistes interprètes ou de leur société de gestion collective. Les artistes interprètes ou leur société de gestion collective seraient tout à fait à même de les émettre.
Pour rappel : ces licences ne semblent présentement pas être obtenues par les personnes menant des activités de FTD. Ceci crée évidemment un manque à gagner notamment pour les artistes interprètes qui peinent à obtenir une juste compensation pour l’utilisation de leurs contenus.
Comme les prestations reproduites aux fins de FTD sont des prestations fixées sur des enregistrements sonores ou audiovisuels et qu’il s’agit de prestations d’œuvres, plusieurs mécanismes peuvent être envisagés pour compenser les ayants droits visés pour cette utilisation qui est faite de leurs prestations : l’introduction d’un droit à une rémunération équitable pour la FTD ou un droit à rémunération via un mécanisme semblable à celui de la copie pour usage privé font partie de ces mécanismes.
La reproduction des prestations d’artistes interprète aux fins de la FTD ne pas couvertes par les dispositions contractuelles qui encadraient la fixation de ces prestations. C’est donc dire qu’aux fins de cette activité, l’autorisation de l’artiste interprète devrait donc systématiquement être obtenue. En effet, il ne faut pas oublier que la reproduction d’une prestation aux fins de la FTD impliquera souvent la reproduction de la voix et de l’image d’un artiste interprète (des données biométriques), qui sont des attributs de sa personnalité protégés par les droits de la personnalité, le droit à la vie privée et les législations en matière de protection de données personnelles.
Compte tenu de ces différentes protections législatives, il semble donc impossible d’envisager une exception pour permettre l’utilisation de ces prestations impliquant la voix ou l’image d’un artiste aux fins de la FTD puisqu’un ensemble d’autres dispositions législatives contrecarraient et contrediraient l’introduction d’une telle exception.
Nous ne sommes donc pas favorables à l’adoption d’une exception générale permettant la FTD, laquelle serait, par ailleurs, également contraire aux engagements du Canada en vertu de divers traités internationaux, tels que la Convention de Berne, l’ADPIC et l’ACEUM lesquels précisent que toute limitation ou exception à laquelle le Canada entend assujettir un droit d’auteur doit être restreinte à certains cas spéciaux où il n'est pas porté atteinte à l’exploitation normale de l’œuvre, ni causé de préjudice injustifié aux intérêts légitimes de l'auteur.
Ainsi, si jamais le gouvernement décidait d’adopter malgré tout une exception de FTD (ce que nous ne recommandons pas), il devra veiller au respect de ses engagements internationaux, par exemple, en veillant à ce que l’exception soit : (i) limitée à des cas spécifiques (par exemple, à des fins de recherche) ; (ii) assujettie à des conditions d’application strictes (par exemple, l’accès à l’œuvre ou objet de droit d’auteur doit être licite) ; et (iii) assortie du versement d’une juste rétribution au bénéfice des titulaires de droits d’auteur, ainsi que d’un mécanisme de retrait (« opt-out ») pour les titulaires de droits d’auteur.
Finalement, cette exception ne devrait pas s’appliquer aux droits moraux, mais uniquement aux droits dits « économiques ».
Nous recommandons fortement la tenue de registre ou la divulgation des contenus protégés par le droit d’auteur qui ont été utilisés pour la formation des systèmes d’IA. Il s’agit d’une obligation essentielle qui devrait être intégrée dans la Loi sur le droit d’auteur. La transparence est l’un des principes fondamentaux qui devraient guider en tout temps les développeurs de systèmes d’IA.
Le niveau de rémunération approprié pour l'utilisation d'une œuvre ou d'un objet du droit d'auteur dans les activités FTD doit être juste et équitable, basé sur les utilisations faites des contenus protégés. Dans tous les cas, la rémunération devrait être arrimée avec les autorisations obtenues et prendre en compte les particularités de chaque contenu reproduit. Par exemple, dans le cas des prestations fixées, une rémunération distincte devra être versée aux artistes-interprètes si l’autorisation initialement consentie aux producteurs des contenus reproduits ne couvrait pas la FTD.
Comme exposé plus tôt, il n’est pas recommandé d’introduire une exception de FTD au Canada. Au contraire, il est essentiel de veiller au respect de la Loi sur le droit d’auteur et des autres dispositions législatives trouvant présentement application (tels que les droits de la personnalité et ceux liés à la protection des renseignements personnels qui sont en jeux lors de la reproduction des prestations d’artistes interprètes à d’autres fins que celles initialement consenties ou la reproduction de leur voix et leur image hors-prestations) en s’assurant que l’autorisation des artistes interprètes soit obtenue et qu’une rémunération juste et équitable leur soit versée lorsque leur contenu est utilisé à des fins de FTD.
Nous recommandons également qu’une obligation de transparence ou de tenue de registres soit imposée aux chercheurs et développeurs de systèmes d’IA générative, dans le contexte de la FTD.
Si toutefois le Canada souhaitait, en dépit de nos recommandations et en contravention des droits de la personnalité, droit à la vie privée et droits liés à la protection des renseignements personnels qui protègent la voix et l’image des artistes interprètes, introduire une exception de FTD, il devra veiller à ce que cette exception respecte les balises internationales, soit d’application limitée et assortie d’un mécanisme de retrait (« opt-out ») pour les titulaires de droits d’auteur.
À cette fin, le gouvernement canadien pourrait examiner la situation prévalant au sein de l’Union européenne, la Suisse et le Royaume-Uni.
Titularité et propriété des œuvres produites par l’IA
L’incertitude entourant la titularité ou la propriété d’œuvres et d’autres objets du droit d’auteur produits par l’IA ou à l’aide de l’IA a notamment des répercussions sur la rémunération des artistes tels que les musiciens, dont les contenus se retrouvent « dilués » sur des plateformes telles que Spotify. En effet, dans la mesure où des contenus « artificiels » envahissent les plateformes de diffusion, les vrais contenus seront noyés dans cette mer de contenus « artificiels » qui pourraient accaparer une proportion des redevances qui seraient autrement destinées aux véritables artistes interprètes.
L’absence de protection des contenus « artificiels » a par ailleurs une incidence sur la protection des véritables prestations d’artistes-interprètes.
En outre, il existe une incertitude entourant la titularité et la rémunération liées à une prestation « artificielle » incorporant la voix, l’image ou la ressemblance d’un artiste-interprète, alors que celui-ci n’a pas autorisé une telle incorporation.
Enfin, selon la Loi sur le droit d’auteur, une « prestation » ne sera protégée que si elle est « rattachée » à une œuvre. Par conséquent, le droit des artistes-interprètes pourrait être mis en péril si ces derniers interprètent des contenus « artificiels », non protégés par le droit d’auteur.
Nous recommandons donc que les prestations soient protégées et ce, indépendamment du fait que les artistes interprètent ou exécutent des contenus « artificiels », non protégés par droit d’auteur. Après tout, les prestations d’artistes interprètes sont protégées même si elles portent sur une œuvre du domaine public ne bénéficiant plus de la protection du droit d’auteur. Il serait donc possible d’étendre la protection des prestations afin de prévoir que la prestation d’un contenu « artificiel » est protégée au même titre que la prestation d’une œuvre, et ce, d’autant plus que l’article 9 de la Convention de Rome est à l’effet que « Tout État contractant peut, par sa législation nationale, étendre la protection prévue par la présente Convention à des artistes qui n’exécutent pas des œuvres littéraires ou artistiques. »
Une meilleure protection des droits des artistes interprètes pourrait donc être atteinte en (i) revoyant les définitions de « prestation » et d’« artiste-interprète » au sein de la Loi sur le droit d’auteur ; (ii) introduisant les droits moraux pour les artistes-interprètes audiovisuels (par exemple, par le biais de la ratification du Traité de Beijing) ; et (iii) introduisant des présomptions de violations des droits économiques et/ou moraux des artistes-interprètes lorsque leurs prestations (ou des composantes de celles-ci telles que la voix ou l’image) sont reproduites dans un contexte d’IA générative à leur insu.
Si aucune contribution humaine ne peut être identifiée en lien avec une « prestation artificielle», nous ne recommandons pas de la protéger. Toutefois, dans la mesure où une contribution humaine est identifiable en lien avec une prestation artificielle, que ce soit : (i) par l’intégration d’une prestation, de la voix, de l’image ou de la ressemblance d’un artiste interprètes ou (ii) par une utilisation de l’intelligence artificielle par un humain qui pourrait être assimilée à celle d’un musicien instrumentiste, cette contribution humaine devrait bénéficier d’une protection.
Le gouvernement pourrait aussi préciser qu’un « artiste interprète », aux fins de la Loi sur le droit d’auteur, est obligatoirement un être humain. Il pourrait également prévoir une présomption à l’effet que la voix et l’image d’un artiste interprète constituent une partie importante de sa prestation.
Ceci permettrait d’avoir plus de certitude quant à l’application de la Loi sur le droit d’auteur.
Enfin, il est également recommandé de modifier la définition d’« artiste-interprète » et de « prestation » au sein de la Loi sur le droit d’auteur, afin que la prestation ne soit plus uniquement rattachée à des œuvres. Le fait qu’une prestation en soit une d’un « produit de l’intelligence artificielle » plutôt que d’une œuvre ne devrait pas faire obstacle à sa protection.
Il n’existe pas d’approches éclairantes dans d’autres pays. Si les législations du Royaume-Uni, de l’Irlande et de la Nouvelle-Zélande ont choisi d’attribuer la titularité d'œuvres générées par ordinateur à la personne qui a pris les dispositions nécessaires à la création de l’œuvre créée, nous ne recommandons pas d’emprunter cette voie, car ces dispositions ont été introduites dans un contexte étranger à l’IA générative. Or, cette technologie soulève des questions bien plus complexes. De plus, nous n’avons pas connaissance que la question spécifique de la titularité de la prestation, de la voix et de l’image d’un artiste interprète dans un produit de l’intelligence artificielle générative ait été abordée dans quelque juridiction que ce soit.
Violation et responsabilité en matière d’IA
Quant à l'existence de préoccupations quant à l’application des critères juridiques existants, nous soumettons qu'il peut être difficile pour un artiste interprète :
(a) d'identifier la ou les personnes responsables d’une violation de ses droits ou d’une contrefaçon de sa prestation ; et
(b) d’établir que la partie qui a utilisé sa voix, son image ou sa ressemblance a eu accès à une prestation préexistante (plutôt que simplement sa voix ou son image hors prestation), que la prestation (et non simplement la voix ou l’image hors prestation) était la source de la copie et qu’une partie importante de la prestation a été reproduite.
De plus, comme il n’y a pas de présomption intégrée à la Loi sur le droit d’auteur à l’effet que la voix ou l’image d’un artiste interprète constituent une partie importante de sa prestation, les critères juridiques existants pourraient ne pas permettre de démontrer qu’un produit de l’intelligence artificielle qui utilise la voix ou l’image d’un artiste interprète viole le droit d’auteur que celui-ci détient sur ses prestations.
La pluralité des intervenants, l’opacité des systèmes d’IA, et la pixellisation de certaines prestations, ainsi que de la voix et de l’image des artistes-interprètes, ce qui rend les prestations originales difficilement identifiables, sont autant d'obstacles qui empêchent de déterminer si un système d’IA a accédé ou copié un contenu spécifique protégé par le droit d’auteur ou les autres droits d'un artiste-interprète lors de la génération d’un extrant portant atteinte à ces droits.
Nous n’avons pas connaissance que les entreprises commercialisant des applications d’IA prennent des mesures pour atténuer les risques de violation du droit d’auteur par des œuvres générées par l’IA lorsqu’elles commercialisent des applications d’IA.
Pour éviter que les produits de l’IA ne violent le droit d’auteur des artistes interprètes sur leurs prestations, les autorisations nécessaires pourraient être obtenues en amont des utilisations par le biais de licences.
L’option d’utiliser des prestations faisant partie du domaine public ne permettrait pas d’éviter à tous coups une violation d’autres droits que le droit d’auteur, tels que le droit à la voix ou le droit à l’image puisqu’il est possible qu’un artiste interprète survive à la durée de protection de ses prestations. Le cas échéant, l’utilisation sans autorisation d’une prestation du domaine public incorporant sa voix ou son image continuerait néanmoins de résulter en une violation de ses droits de la personnalité.
À la question de savoir si l'on devrait clarifier davantage la responsabilité dans les cas où une œuvre générée par l’IA viole les droits d’une œuvre déjà protégée par le droit d’auteur, nous répondons que la Loi sur le droit d’auteur dispose de mécanismes suffisants pour déterminer la responsabilité en cas de violation de droit d’auteur.
Cela dit, il serait néanmoins souhaitable qu’aux fins de la détermination de ce qui constitue une contrefaçon d’une prestation, il soit reconnu, par l’introduction d’une présomption, que la voix ou l’image d’un artiste interprète constitue une partie importante de sa prestation.
Enfin, le Canada pourrait imposer une obligation de transparence ou de tenue de registres auprès des entités développant et entraînant des systèmes d’IA.
Quant aux approches d'autres pays qui pourraient éclairer l'examen de cette question au Canada, nous rappelons que dans son projet de règlement « AI Act », le Parlement européen a introduit une obligation de transparence, de sorte que les entités qui développent des systèmes d’IA devront publier un résumé suffisamment détaillé de leur utilisation de « données d’entraînement protégées par la législation sur le droit d’auteur », ainsi qu’une information appropriée, claire et visible qui distingue le contenu généré de l’original. Cette approche nous paraît louable, mais le Canada devrait aller encore plus loin. En outre, l’obligation de transparence canadienne devrait également s’appliquer aux prestations et à leurs composantes (voix, image et ressemblance de l’artiste-interprète), ainsi qu’aux résultats générés par ou avec IA.
Commentaires et suggestions
La consultation publique est accueillie favorablement par nos organisations, lesquelles voient en cet exercice une volonté du gouvernement de clarifier les incidences de l’IA sur le droit d’auteur. Nos organisations ne souhaitent pas freiner l’avancement de l’IA, mais désirent préserver l’équilibre que la Loi sur le droit d’auteur sous-tend, en veillant à préserver la culture canadienne, la créativité humaine, ainsi que les intérêts des titulaires de droits d’auteur.
Pour ce faire, nous recommandons que les principes regroupés sous l’acronyme « A.R.T. » (Autorisation, Rétribution et Transparence) guident les actions du gouvernement, dans le contexte de cette consultation publique et des possibles amendements à la Loi sur le droit d’auteur qui en découleront.
Par ailleurs, il est important que la consultation publique ne se limite pas aux intérêts des auteurs et autres titulaires de droits d’auteur sur des œuvres, mais qu’elle couvre également les intérêts des artistes-interprètes sur leurs prestations ainsi que sur leur voix, leur image et leur ressemblance.
L’IA générative bouleverse en effet grandement ces créateurs, notamment dans le contexte de l’hypertrucage (ou « deepfake » en anglais). À ce chapitre, les artistes-interprètes audiovisuels ne disposent pas de droits suffisants pour protéger leurs prestations, y compris dans le contexte de l’IA générative et de l’hypertrucage. Afin de pallier cette situation, il est recommandé d’étendre les droits exclusifs et les droits moraux de ces artistes, par exemple, en ratifiant le Traité de Beijing.
Artists and Lawyers for the Advancement of Creativity
Technical Evidence
How do businesses and consumers use AI systems and AI-assisted and AI-generated content in your area of knowledge, work, or organization?
We, Artists and Lawyers for the Advancement of Creativity (ALAC), as a non-profit association facilitating a pro bono legal clinic and providing other legal resources for artists – i.e., creators working in all disciplines of the arts – know that artificial intelligence (AI) is currently in use by artists for research.
AI is an extraordinarily powerful tool that artists from many disciplines can harness for AI-assisted works. AI can be used to help generate draft text, images and even roughs for audio and video. It is used in the ideation phase, for inspiration boards and also for final content creation. AI can reduce costs and time to create content and allow artists to scale and create works previously not possible.
Artists will use AI to calculate royalties due for their works and those who are in business to sell their own works, for example, visual artists and self-published writers, will make increasing use of AI for tracking their own sales and inventory.
Additionally, we know that some artists have used AI as a medium for their work, where the expression and presentation of AI output amounts to social commentary. In other words, the use of AI is a form of expression, and often a comment about AI, for example, as a reflection of bias in society.
---------
2. Text and Data Mining:
If the Government were to amend the Act to clarify the scope of permissible TDM activities, what should be its scope and safeguards? What would be the expected impact of such an exception on your industry and activities?
There should be no legislated exceptions to copyright for Text and Data Mining, which is unfortunately a misleading term, as the “mining” can include, among other things, visual art, photography, music, motion pictures, and so on. Any new exception introduced to the Copyright Act for TDM will negatively affect artists working in every discipline of the arts and likely have unintended consequences.
As a safeguard against the likelihood of persons in the public being deceived by inaccurate, misleading, manipulative, fraudulent or false information and by deep fakes, legislation should require all displayed, published or made-available AI-generated content to be marked or labeled as “machine-generated” or “generated by artificial intelligence”.
Another safeguard should be to require AI developers to develop AI tools that do not provide prompts to users of their systems that could recreate copyright works used as input, whether or not those works have been licensed for TDM use. Generative-AI developers and platforms as well as persons falsely claiming credit as author or other creator, entities falsely claiming to be the publisher or producer, and distributers that are aware of such fraud should be liable or share liability for copyright-infringing output, including the infringement of the author’s or the performer’s moral rights of attribution very likely to accompany infringement of their economic rights.
Section 30.71 of the Copyright Act permitting temporary reproductions for technological processes should be amended to specifically exclude TDM, if not ruled out first by court decisions.
Before any legislative change, the courts in Canada may decide that the current “fair dealing” exception to copyright permits some TDM with respect to copyright works. Since AI developers all have their own method of training AI models and these methods will likely continue to change as technology develops, the “fair dealing” analysis must be done on a case-by-case basis.
Regulations for fair dealing specifically for TDM may seem premature right now, but will be needed sometime in future if some generative-AI developers and platforms treat this defence as a loophole and arbitrarily help themselves to the work of creators. Legislative amendment in 2012 that introduced the fair dealing exception for the purpose of “education” had an unforeseen severe impact on creators’ incomes as a result of the lack of a definition and the tempting broadness of what might be considered “fair”. Regulations for fair dealing specifically for TDM should provide a clear and narrow definition of any allowable dealing and should be sufficiently flexible to restrain expansion of TDM, as generative AI will continue in rapid flux.
Unlike an amendment to the Copyright Act, regulations can be changed more easily as circumstances change. If the TDM issue is not resolved expeditiously and sufficiently by regulations on fair dealing under the Copyright Act or, alternatively, by regulations under the Artificial Intelligence and Data Act, which is currently under consideration by a committee of the House of Commons, collective licensing subject to negotiated licenses or a mandatory tariff for specific TDM uses would be appropriate.
Collective licensing of TDM should be permissible in any case. Any exception for TDM is likely to lead to an increased number of infringements of copyright, and members or affiliates of collective societies may want their rights with respect to TDM to be handled by their collective society. However, a licence from a collective society should not preclude the possibility of direct licensing of TDM or litigation by an individual creator or other copyright owner or holder.
The proposed Artificial Intelligence and Data Act currently under consideration by Parliament unfortunately does not specifically address the very real probability of significant damage in the copyright landscape arising from generative AI’s potential scale of use, the severity of harm to creators, and the economic imbalance between high-impact AI systems and copyright owners and holders.
Should there be any obligations on AI developers to keep records of or disclose what copyright-protected content was used in the training of AI systems?
AI developers should certainly be required to keep and retain records of all works used to produce or “train” generative-AI models and to release this information promptly to allow public inspection as well as inspection and monitoring by authors, other creators and copyright owners or holders, whether or not in the context of a perceived or an alleged copyright infringement or tort (e.g., libel or slander, appropriation of personality rights or unjust enrichment).
Without a requirement to both maintain and disclose records, it becomes extremely difficult or impossible for a rightsholder (as well as too expensive, probably even for a collective society representing many rightsholders) to find out whether their works were used to train the AI model and whether there has been an infringement of the copyright or a failure to seek a licence.
What level of remuneration would be appropriate for the use of a given work in TDM activities?
Fees should be negotiated by the generative-AI developers and platforms with copyright owners or holders, or with their collective societies, subject to arbitration if no licence is agreed or subject to a mandatory tariff determined by the Copyright Board.
Criminal penalties for copyright infringement and, if opted for by a copyright owner or holder, the statutory civil damages for plaintiffs that are available need to be increased as the infringers or enablers of infringement are most likely large international technological corporations. Otherwise, the high costs of individual investigation and prosecution will make enforcement prohibitive.
Text and Data Mining
What would more clarity around copyright and TDM in Canada mean for the AI industry and the creative industry?
Clear information could decrease the amount of illegal reproduction of copyright works used for Text and Data Mining (TDM), which despite its label does not only include literary text but can also include, among other things, visual art, photography, music, motion pictures, and so on.
The question of to what extent, and in what circumstances, dealing with pre-existing works is “fair dealing", and therefore not infringing, is a live question in Canada. So-called TDM activities not only leverage the works of the creative community to train AI, exploiting human ingenuity and originality and advantaging machine learning, but also compete with and threaten to displace the role of artists in society. Given the challenges to visual artists, literary authors and other creators making a living wage in the creative economy, there should be a reward that goes back to the creative community that reflects the economic value extracted from such use of works. To the extent that copyright protects works that are used to train AI, creators should be entitled to a just reward for use of their works. From this perspective, it should be absolutely clear that scraping copyright works for the purpose of TDM without authorization from copyright owners and holders whose works are used in generative AI is an infringement of copyright content created by artists working in all disciplines, including literary, artistic, dramatic and musical works, choreographic works, works displaying lyrics and musical notation, sound recordings of audio works, and performers’ performances (e.g., dance, songs and spoken words), and audiovisual works (e.g., motion pictures including animation) and interactive works (ie.g., video games) that are derived from these and other works. Output from AI models that infringes the economic rights of a creator’s copyright is also likely to infringe their moral rights.
Clarity on any fair dealing extending to TDM activity will be needed. Ambiguity in the law tends to favour economic interests that can afford to test the waters. In the face of ambiguity over whether fair dealing may extend to TDM activities, most members of Canada’s creative community would not have the resources, nor would they be prepared to risk the expense and time required to litigate the matter, knowing the result would be uncertain. Creators also hesitate to use AI-generated content as it exposes them to potential claims of infringing copyright material that they could not identify.
Transparency is also desperately needed so creators will know what works were included in the datasets on which AI models have been “trained” (a common usage ironically implying human intelligence!) or programmed, and so creators will be able to monitor compliance if they have authorized TDM. Developers of AI models should be required to maintain detailed logs of the sources used to train the AI. These logs would allow creators to track the use of their works and ascertain that such use had been properly authorized. Another way to provide transparency would be to require AI output to include a list of the works that have been used in the making of that output, again allowing creators to monitor the use of their work and also to provide comfort when using AI-generated work themselves.
Additionally, transparency is needed with respect to the use that AI technology will make of output as well as any content or instructions provided by creators. Creators need to know if any of their instructions regarding use will in turn be integrated into future datasets and output to be used by others.
It would be problematic to introduce any new exceptions into the Copyright Act to deal with TDM or works made by generative AI in reliance on TDM. There is no one-size-fits-all model for how TDM works. Any exception introduced could have significant negative or unintended repercussions on the creative industries, some caused by the works of artists being falsely attributed to persons who did not create them including fake images and texts, sound and audiovisual recordings and other deceptively identified artistic expression purportedly by name artists (e.g., painters, photographers, poets and film directors) and some by works euphemistically in the “style of” name artists.
Any exception for TDM is likely to lead to floods of machine-generated works, including some infringing works, that will compete with original copyright works created by human authors and their publishers and producers and distributed by broadcasters, wholesalers, retailers and other distributors. Resulting lower incomes for a great many artists in this confusing and overly competitive marketplace will cause many to give up professions which may already be marginal for them – now less viable for some as a result of the lockdowns of the COVID pandemic years.
Are rightsholders facing challenges in licensing their works for TDM activities? If so, what is the nature and extent of those challenges?
Our experience communicating with artists working in all disciplines of the arts is that creator rightsholders generally don’t want to have their works used for Text and Data Mining and the development of generative-AI models, unless they could license their works for clearly specified purposes or uses, subject to compensation for making their works available for those purposes or uses. While there are a few examples of voluntary licensing initiatives having been introduced by AI developers, we have not seen instances where creators have accessed or used these systems.
The flooding of cultural markets by millions of AI-generated works will impair the market for the original works of authors and performers and disincentivize human creators. It seems inevitable that most if not all creators would be discouraged and demotivated when AI-generated works appear to have filled the gap for a work on a particular subject, or if the plots of thinly disguised sequels to a novel or television series have been scooped for AI-generated content. Fewer works by human creators will be successful in a crowded and confusing marketplace. AI-generated works that rely on TDM are not original works of human authorship and therefore should not be protected by copyright, which is indicative of ownership of original works.
We observe that, in any case under existing law, AI-made works without the intellectual involvement of humans exercising their skill and judgment do not have the “originality” required for copyright as determined by the Supreme Court of Canada in a 2004 case. We note that, because of generative AI, it is our view that these criteria for original works should now additionally include a measure of creativity by a human author.
Lack of transparency is also currently a challenge because if creators don’t know their works are being used for TDM, how can they engage in a licensing discussion with the AI developer. To begin with, creators should know that TDM does not only use literary texts, and they should know or be able to find out easily if their literary, dramatic, musical, visual and other artistic works and other subject-matter have been subjected to TDM. They or copyright holders of their works, and ALAC as an organization, have little or no information about the content of the datasets now being used to make publications of text (e.g., print and audio books and software code) and images (e.g., prints and photographs), sound recordings (e.g., music and radio programs) and audiovisual recordings (e.g., motion pictures including animation) that will compete with the copyright works of human authors. They have no ability to monitor uses by AI developers and platforms, have little information about how much of this training of AI models may be making unauthorized use of copyright works (including works of their own) – other than from media reports about alleged infringements – or, if the use of copyright works is authorized, do not know whether the training includes their instructions for their content when developers instruct the AI to produce the output.
Right now, even when the economic rights of copyright owners and holders are obviously infringed by AI-generated works that are derivative works substantially similar to the original work, the difficulty or near-impossibility of getting evidence of TDM and anyone’s liability remains a hurdle. In addition, copyright owners and holders are deterred by the formidable costs of endeavouring to investigate and prosecute such claims. It should consequently be the responsibility of AI developers to develop AI tools that will not provide prompts to users of their systems that could recreate copyright works used as input, whether or not those input works were licensed for permissible TDM.
We also note that there is some discussion in the creative community around whether rights management information may be used in relation to TDM activities. It is premature to know what technical or other solutions may be appropriate, and further investigation into options is desirable prior to eventual amendment of copyright legislation. At this time, what is clear is that if an artist uses digital rights management information (“DRMI”) to indicate that a work may not be used for TDM activities, the DRMI notice must be respected, failing which copyright should be deemed infringed. However, creators of works must not be required to use DRMI in order to preclude or “opt-out” from use of their works in TDM activities or to safeguard their works from use in TDM without their permission.
Authorship and Ownership of Works Generated by AI
Is the uncertainty surrounding authorship and ownership of AI-assisted and AI-generated works and other subject matter impacting the development and adoption of AI technologies?
The term “author” is not defined in the Copyright Act, but the legislative language and jurisprudence imply that “authors” are humans. Also undefined but implied, performers of performers’ performances must be human. Anyone can call themself an author or a performer regardless of whether or not they have created a copyright work or other copyright subject-matter. We submit, however, that it is not honest or ethical to do so for an AI-generated work. This crosses a line into commercial deception of the public by trading on the public’s long-standing presumption of human authorship and the valuable goodwill associated with human authorship.
More and more creators will use generative AI for research and many of them will create AI-assisted works, but generative-AI content without the intellectual involvement of human creators exercising skill and judgment (established as the criteria for original works by the 2004 decision of the Supreme Court of Canada) is not “original”. As a result, there is no copyright protection for such AI-generated works, and this should not change. In the context of artificial intelligence, the criteria for assessing the originality of a work should clearly require creativity by a human author or other human creator. AI-generated material lacking originality should not be protected by copyright and should not be permitted to display a copyright notice.
We are of the view that AI-assisted works and other subject-matter should be protected by copyright, assuming originality, effective and verifiable human control, and appropriate attribution to their human authors and performers. An AI-assisted work may and would ordinarily display a copyright notice. There should, however, be a disclosure requirement that AI was used in generating the work.
A significant concern with granting authorship of AI-generated works to owners of those works is that it could encourage bad actors to generate works for the sole purpose of eventually bringing claims against human creators for infringement. Given the near-endless works that such malicious persons could generate, these AI-created works could flood the market and compete directly with original works created by human authors and their publishers and producers as well with the broadcasters, wholesalers, retailers and other distributors of their works. This will have the adverse effect of creating confusion in the marketplace, driving down prices, and inhibiting human creators’ incentive to generate new works.
It should be an offence for any person or entity, identifying themself as the owner, maker, publisher or author of an AI-generated work or other subject-matter without significant human intellectual involvement, including a measure of creativity (as we propose above) in addition to skill and judgment, to place a copyright notice on its publication. A machine-made work or other subject-matter lacking originality should never be protected by copyright. Nor should AI-assisted work or other subject-matter be protected by copyright unless it contains substantial original material created by humans and unless its entire content is under effective and verifiable control of humans and at least one human is identified as its author or publisher.
All owners of AI-generated and AI-assisted works should be liable for infringements of copyright and for torts (e.g., libel or slander, appropriation of personality rights or unjust enrichment), as should the developers involved in creating and training the AI model. Producing any AI-generated or AI-assisted work which imitates or mimicks the distinctive style of another writer could be viewed as an appropriation of personality rights.
It is noteworthy that if an AI model is trained only on licensed works, and the licence addresses clearance for outputs that include similarities, the risks associated AI-generated and AI-assisted works would be materially reduced. Also, without transparency requirements, knowing whether an output is likely to have reproduced a substantial part of a prior work will be challenging. Infringements of the economic rights of copyright are also likely to be an infringement of a creator’s moral rights of attribution.
An AI-assisted author should be liable or share liability, not just with respect to their own text, images and other changes (e.g., their edits, adaptations, additions and substitutions), but also because of the possibility that AI-generated material in the content of the work, unbeknownst to them, may infringe copyright or otherwise violate the rights of other authors. They may unwittingly incorporate AI-generated material that puts them at risk and they should ascertain that the use of all copyright works in datasets for TDM used to train models that they used have been authorized by the copyright owners or holders or are works in the public domain. For example, a scriptwriter who is engaged by a producer to revise a draft script made by generative AI should be cautious.
Regulations should include an obligation to name or identify – and publish or display on every AI-generated publication or production – a responsible person or entity who will be liable in addition to any named and identifiable author or publisher of the publication or production.
Infringement and Liability regarding AI
What are the barriers to determining whether an AI system accessed or copied a specific copyright-protected content when generating an infringing output?
The biggest barrier will be the lack of information on the input of copyright works into an AI system if courts want evidence of TDM to establish access by the defendant despite general availability of a creator’s work in the marketplace or a public forum, as well as substantial similarity between it and allegedly infringing AI-generated material. This assessment of similarity will be subjective, may not be immediately obvious and will be hard to determine or adjudicate, particularly in the absence of information about input. Copying may occur on actual reproduction on input into an AI system or may result from ordering of output words and images by an algorithm.
There should be an obligation to keep and retain records of all copyright material input into an AI system and to make them fully available for monitoring by rightsholders and their collective societies. Prior to any legal requirement by legislation or regulation, Government should ask AI developers to do this on a voluntary basis. Knowledge or awareness of infringement or use of TDM without rightsholder consent should be presumed in law if AI developers or users of their AI tools fail to keep records and comply with other regulations.
Should there be greater clarity on where liability lies when AI-generated works infringe existing copyright-protected works?
AI developers and platforms and those claiming authorship and identifying as publishers and producers of an AI-generated work in publications and productions as well as distributors that are aware of such fraudulent claims and identification should be liable or share liability for infringing copyright works. The apportionment of liability should be determined by the courts on a case-by-case basis.
Comments and Suggestions
Artists and Lawyers for the Advancement of Creativity (ALAC), a non-profit corporation operated by volunteer entertainment and intellectual property lawyers, creators and law students, that among other activities, facilitates and co-ordinates a pro bono legal clinic for artists. This legal clinic, founded in 1986 and long known as ALAS (Artists’ Legal Advice Services), provides summary legal advice to artists working in all disciplines of the arts and to arts organizations offering services to artists and other creators, mostly unable to access more expensive alternatives.
Since its incorporation in 1991, ALAC has facilitated and coordinated the ALAS legal clinic, where volunteer lawyers have provided summary legal advice at the ALAS legal clinic to artists and other creators in all arts disciplines and to arts organizations offering services to artists since it first began in 1986 – over 37 years ago. In addition to continuing the ALAS legal clinic, ALAC provides educational sessions focused on different areas of law and art, in which industry and legal experts provide artists with information and guidance. Additionally, we offer legal resources that provide summary information on legal topics that are relevant to creators, currently available at the website (alasontario.ca).
Over the past several years, we have seen first-hand the legal challenges that have emerged from AI, both from a creator and user perspective. Ever since the launch of Chat GPT and Dall-E, for example, there has been a significant increase in the number of artists attending the ALAS legal clinic with questions about AI. Furthermore, our educational sessions devoted to AI have been the most popular sessions we have ever had. Creators are both excited and nervous about the future of AI.
We understand the need for Government policy to preserve the balance between supporting innovation and investment in AI as it positively and negatively affects the creative sector and preserving the incentive for human authors and other human creators in all arts disciplines to create. ALAC welcomes the opportunity provided by this Consultation to make our comments and suggestions:
As AI continues to develop at an amazing speed, it is our view that it is premature right now for Parliament to pass any copyright legislation with respect to generative-AI systems unless it becomes necessary to curb abuses of Text and Data Mining (TDM) immediately. Perhaps with slight amendments to the Artificial Intelligence and Data Act, currently under consideration by a House of Commons Committee, regulation of AI-generated works to curb abuses of TDM could be accomplished well prior to any amendments to the Copyright Act, which would likely be quickly outdated by further AI developments in Canada and elsewhere.
It may be that some use of TDM and resulting AI-generated output will be accepted by courts, perhaps as “fair dealing”, and this may suffice for the time being to deal with AI until it becomes necessary to set parameters on fair dealing, preferably by regulation in order to remain flexible.
Section 30.71 of the Copyright Act permitting temporary reproductions for technological processes should eventually be amended to specifically exclude TDM.
Authors and other creators of copyright works or other subject-matter or, if authorized, their publishers, producers or collective societies, should be able to choose to license AI developers for TDM for specific purposes and uses, subject to negotiated limitations on use, fees, record-keeping and other conditions negotiated with generative-AI developers and platforms.
There should be no exceptions to the Copyright Act to accommodate developers of generative-AI and platforms. Exceptions would encourage more use of entirely AI-generated works that would substitute for, compete with, and impair the market for original copyright works created by the skill and judgment of human authors as well as, in our opinion, their creativity, including original AI-assisted works.
What is desperately needed right now – prior to any eventual amendments to the Copyright Act – is much more information and transparency about any AI systems being used to generate published materials including the sources of the data relied on for content. This information should be easily available to rightsholders and the public, not just in case of alleged copyright infringement but in any case. Creators and users of AI systems should be entitled to know what has been included in the datasets on which AI models have been “trained” and to be able to monitor compliance if they have authorized TDM. Furthermore, AI developers should develop generative-AI tools that will not provide prompts to users of their systems that could recreate copyright works used as input or deliberately imitate the style of specifically named human authors.
AI developers as well as generative-AI platforms and credited publishers and producers of AI works as well as individuals to whom authorship of such AI work is attributed should clearly label all generative-AI work as machine-generated and should be liable or share liability for infringing output. It should be an offence for any person or entity, identifying itself as the maker, publisher or author of an AI-generated work without significant human intellectual involvement including a measure of creativity, to place a copyright notice on its publication or production. Penalties for copyright infringement and statutory damages available to plaintiffs should be increased as the infringers or enablers of infringement are most likely to be large international technological corporations.
To recognize copyright in AI-generated works without originality due to human skill, judgment and creativity and without effective and verifiable human control would disrespect authors, performers and other artists working in all disciplines of the arts, demean their professions, reduce incomes and force some to look for other careers, as well as reduce the number of jobs generally in the cultural sector of the Canadian economy. This would be a devastating loss to Canadian culture, economy, and society.
Parliament should not jump prematurely to enact copyright legislation on AI in this extraordinarily disruptive time before Canadian society gets accustomed to generative AI and the inevitable huge change to Canadian culture. There should be certainty that any changes to the Copyright Act will be compatible, to the extent reasonably possible, with the copyright laws of Canada’s main trading partners, particularly the United States, the United Kingdom and the European Union, as well as former colonies of countries with compatible laws.
Technological progress of artificial intelligence is applaudable, and we marvel at the text, images and sound that can be produced by generative AI and recognize that AI-generated material can have great value if used responsibly in appropriate contexts, but it should not encroach on human authorship and societal values. Paragraph 2 of Article 27 of the Universal Declaration of Human Rights reminds us that “Everyone has the right to the protection of the moral and material interests resulting from any scientific, literary or artistic production of which he is the author.” It should not be forgotten that our Copyright Act is based on human authorship including the sole rights vested in authors set out in Section 3 and that any exception from copyright with respect to AI must pass the 3-step test in Article 9(2) of the Berne Convention for the Protection of Literary and Artistic Works, echoed in the WIPO Copyright Treaty, the WIPO Performances and Phonograms Treaty and in the Canada-US-Mexico Agreement, providing that copyright exceptions must not “unreasonably prejudice the legitimate interests of the author.”
Artists' Legal Services Ottawa (ALSO)
Technical Evidence
We are responding to this consultation on behalf of Artist’s Legal Services Ottawa (ALSO) which is a non-profit corporation operated by volunteer entertainment, corporate and intellectual property lawyers and law students in Ottawa, Ontario. ALSO aims to provide legal education and informational resources to creators across the National Capitol Region who may not be able to access more expensive alternatives. Since ALSO’s incorporation in 2013, ALSO has facilitated and coordinated educational sessions aimed at informing artists of all disciplines on a wide variety of legal issues that impact their practices and businesses. Additionally, we offer legal networking resources that connect artists to legal counsel that can provide relevant legal information or advice.
Over the past several years, we have seen first-hand the legal challenges that have emerged from AI, both from a creator and user perspective. Since the launch of platforms like ChatGPT and Dall-E, there has been a significant increase in the number of artists with questions about AI. Creators are both excited and nervous about the future of this new and impactful technology, not only on their own creative practices, but also for what it means for them as they continue to form, grow, and scale internationally competitive businesses.
In this consultation, the Government is seeking comment on potential copyright policy options to preserve the balance between developing technology and working creators. On one hand, the Government seeks to support innovation and investment in AI and other digital and emerging technologies in all sectors of Canada. On the other, the Government seeks to support Canada’s creative industries and to preserve the incentive of human authors and other creators in all arts disciplines.
ALSO welcomes the opportunity to provide our comments on this consultation.
Technical Evidence
• How do businesses and consumers use AI systems and AI-assisted and AI-generated content in your area of knowledge, work, or organization?
AI is currently being used by artists across all disciplines for research, and at various stages of their creative process. AI is becoming an extraordinarily powerful tool to help generate draft text, produce sophisticated images, and even roughs for audio and video. The use of various AI tools throughout an artist’s process can significantly reduce production costs and the time it takes to create new and innovative works. Moreover, integration of these technologies increases an artist’s ability to scale their practice and create works previously not possible.
Additionally, artists who sell their own works, for example, visual artists and self-published writers, will make increasing use of AI to track sales, inventory, and to calculate royalties due for their works.
Text and Data Mining
One of the foremost challenges facing artists today is the prolific, unauthorized use of their copyrighted material in the training and development of AI technologies. The success of any AI program depends on the data on which it is developed and trained; the more data a program has to learn from, the more sophisticated and accurate its outputs will be. Therefore, there is great incentive on the part of developers to obtain as much data, in as many forms as possible, to ensure their AI’s outputs are as accurate and, sometimes, as “human” as possible. With the amount of data points often being in the millions, it is inevitable that copyrighted material would be included and used. However, artists’ intellectual property and commercial rights are uniquely threatened by AI because much of the material used in training these models (i.e. text, imagery, audio and visual material) is creative. By extension, much of this material is protected by copyright. To decrease the illegal use of copyrighted works in the generation of AI it is imperative that clear information be provided on the relationship between copyright law and Text and Data Mining (TDM). Despite its title, TDM does not only include literary text; it also can include, among other things, visual art, photography, music, motion pictures, and so on. Canada should make absolutely clear that scraping copyrighted works for the purpose of TDM in generative AI without authorization of copyright owners and holders is an infringement of copyright law.
Content created by artists working in all disciplines, including literary, artistic, dramatic and musical works, choreographic works, works displaying lyrics and musical notation, sound recordings of audio works, and performers’ performances (e.g., dance, songs and spoken words), audiovisual and interactive works derived from these and other works (e.g., motion pictures and video games) are all copyrightable material. Therefore, transparency is desperately needed to ensure authors and copyright holders know exactly what works were included in the data sets on which AI models have been trained or programmed. Creators must also be given a mechanism to monitor compliance if they have authorized certain works to be used in TDM. Developers of AI models should be required to maintain detailed logs of the sources used to train the AI. These logs would allow creators to track the use of their works and be sure that any such use had been authorized. It would be problematic to introduce any new exceptions to the Copyright Act that provide a new exception for TDM or works made by generative AI in reliance on TDM. There is no one-size-fits-all model for how TDM works; each platform developer uses a different programming methodology and sources their data differently. Any exception introduced would have huge negative repercussions on the creative industries, including, but not limited to, production of fake images and texts, sound and audiovisual recordings and other deceptively identified artistic expressions purportedly by name artists (e.g., painters, photographers, poets and film directors). Generative AI platforms are being increasingly used by impersonators to produce works “in the style of” name artists, where works of art are being falsely attributed to persons who did not create them but are gaining notoriety or attention because the work is immediately reminiscent of that artist’s well-known style. Much like with real-life copycats, these AI-generated works are cutting the real artist out of the process completely, and often the financial benefits.
An exception for TDM in the Copyright Act would open the floodgates of machine-generated works that will infringe authors’ moral rights, will compete with original copyright works created by human authors and their publishers, producers, and distributed by broadcasters, wholesalers, retailers and other distributors. Permitting TDM to utilize copyrighted material without authorization, attribution or due compensation will reduce incomes for a great many artists in this confusing and overly competitive marketplace, which will likely cause many artists to give up their professions. Canada’s creative industries have already struggled immensely, especially during the COVID pandemic years. An exception for TDM would make it even more difficult for Canadian artists to be commercially successful both at home and internationally.
Response to Bullet #3
Our experience communicating with creators is that rightsholders generally do not want their works used for Text and Data Mining and the development of generative-AI models, unless their works would be licensed for clearly specified purposes or uses. Rightsholders generally maintain that this licensing should include compensation for making their works available for those purposes or uses. The flooding of cultural markets by millions of AI-generated works will impair the market for the original works of authors and performers and disincentivize human creators, particularly discouraging and demotivating them when AI-generated works appear to have filled the gap for an original work on a particular subject. Notable examples of this market dislocation include AI-generated content scooping the plots of thinly disguised sequels to a novel or television series. Fewer works by human creators will be successful in this crowded and confusing marketplace. AI-generated works that rely on TDM are not original works of human authorship and should, therefore, not be protected by copyright. Under existing law, AI-made works without the intellectual involvement of humans exercising their skill and judgment do not have the “originality” required for copyright, as determined by the Supreme Court of Canada in the 2004 CCH Canada ruling. Given generative AI’s capacity to reproduce works without human involvement, it is our view that the criteria for “original works” should now clearly include a measure of creativity by a human author.
Lack of transparency is also currently a challenge because creators cannot engage in a licensing discussion with the AI developer if they do not know that their works are being used for TDM. To begin with, creators should know that TDM does not only use literary texts, and they should know or be able to find out easily if their literary, dramatic, musical, and artistic works and other subject-matter have been subjected to TDM. They, and ALAC as an organization, have little or no information about the content of the datasets now being used to make publications of text (e.g., print and audiobooks) and images (e.g., prints and photographs), sound recordings (e.g., music and radio programs) and audiovisual presentations (e.g., motion pictures and videogames) that will compete with the copyrighted works of human authors. Creators currently have no ability to monitor uses of their creations by AI developers and platforms, and they have little information about how much of this training of AI models may be making unauthorized use of copyright works (including works of their own) other than from media reports about alleged infringements. At present, even when it is obvious a copyright holder’s rights have been infringed by a clearly substantially similar AI-generated work, it is difficult, and often impossible, to secure evidence of TDM, and thus determine the infringer’s liability. In addition, copyright owners are being deterred from pursuing litigation of this nature because of the formidable costs of investigating and prosecuting such claims. Consequently, it should be the responsibility of AI developers to program safeguards into their models will not reject prompts from users that instruct the AI model to recreate copyrighted works, whether or not those input works were licensed for permissible TDM. Generative AI developers and platforms, as well as falsely-credited authors, performers, publishers or producers, should be liable or share liability for copyright-infringing outputs and for any resulting infringement of the creators’ moral rights of attribution and integrity.
Response to Bullet #5
There should be no legislated exceptions to copyright for TDM. The phrase “Text and Data Mining” is unfortunately misleading as the “mining” concerned can include, among other things, visual art, photography, music, motion pictures, and so on. Any new exception introduced to the Copyright Act for TDM will negatively affect artists working in every discipline of the arts. To safeguard against the public being deceived by inaccurate, misleading, manipulative, fraudulent or false information or “deep fakes”, Canadian legislation should prescribe that all displayed, published or made-available AI-generated content should be labelled as “machine-generated” or “generated by artificial intelligence”.
Another safeguard should be to require AI developers to develop AI tools that reject prompts of users that could lead to the recreation of copyright works, whether or not those works have been licensed for TDM use. Generative-AI developers and platforms, as well as persons to whom authorship is falsely attributed, and falsely credited publishers or producers, should be liable or share liability for infringing outputs. Section 30.71 of the Copyright Act permitting temporary reproductions for technological processes should be amended to specifically exclude TDM, if this inclusion has not been ruled out earlier by court decisions. The courts in Canada may decide the current “fair dealing” exception permits some TDM, however, since AI developers all have their own method of training AI models and these methods will likely continue to change as technology develops, the “fair dealing” analysis should be done on a case-by-case basis.
Authorship and Ownership of Works Generated by AI
Text and Data Mining Responses Continued
Regulations for fair dealing specifically for TDM may be needed sometime in future if some generative-AI developers and platforms treat this defence as a loophole and arbitrarily help themselves to the work of creators for unfair advantage. This practice has occurred since 2012 with respect to the then-new fair dealing exception for the purpose of “education” – because of the lack of a definition and the tempting broadness of what might be considered “fair”. Regulations for fair dealing specifically for TDM should provide a clear and narrow definition of any allowable dealing and should be sufficiently flexible to restrain expansion of TDM as generative AI will continue in rapid flux. Unlike an amendment to the Copyright Act, regulations can be changed more easily as circumstances change.
If the TDM issue is not resolved sufficiently by regulations on fair dealing under the Copyright Act or, alternatively, by regulations under the Artificial Intelligence and Data Act, which is currently under consideration by a committee of the House of Commons, collective licensing subject to negotiated licenses or a mandatory tariff for specific TDM uses would be appropriate. The proposed Artificial Intelligence and Data Act currently under consideration by Parliament unfortunately does not specifically address the very real probability of significant damage in the copyright landscape arising from generative AI’s potential scale of use, the severity of harm to creators, and the economic imbalance between high-impact AI systems and copyright owners and holders. Although most members or affiliates of collective societies probably want their rights with respect to TDM to be handled by their collective society, a licence from a collective society should not preclude the possibility of direct licensing by an individual creator or other copyright owner or a copyright holder.
• Should there be any obligations on AI developers to keep records of or disclose what copyright-protected content was used in the training of AI systems?
AI developers should certainly be required to keep and retain records of all works used to produce or “train” their generative-AI models and to release this information promptly to allow inspection and monitoring by authors, other creators, copyright owners/holders and public inspection. This right to inspect/monitor should exist regardless of whether or not there is a perceived or alleged copyright infringement or tort (e.g., libel or slander, appropriation of personality rights or unjust enrichment).
Without a requirement to both maintain and disclose training data records, it becomes extremely difficult, often impossible, for a rightsholder to find out whether their works were used to train a particular AI model and whether there has been an infringement of their copyright or a failure to seek a license. Ensuring authors and copyright holders have continued control over their works, and continue to receive economic benefit from them, is of utmost priority. The Copyright Act empowers creators to balance their commercial and moral interests against the public interests; the Act should continue to do so when it comes to AI.
• What level of remuneration would be appropriate for the use of a given work in TDM activities?
Fees should be negotiated by the generative-AI developers/platforms and copyright owners/holders, or with their collective societies directly. Arbitration should be required if no license fee is agreed to, or use of copyright material in TDM could be subject to a mandatory tariff determined by the Copyright Board.
Criminal penalties for copyright infringement and, if opted for by a copyright owner or holder, the statutory civil damages for plaintiffs that are available need to be increased as the infringers or enablers of infringement are most likely large international technological corporations, and the high costs of individual investigation and prosecution will make enforcement prohibitive otherwise.
Authorship & Ownership of Works Generated by AI
• Is the uncertainty surrounding authorship and ownership of AI-assisted and AI-generated works and other subject matter impacting the development and adoption of AI technologies?
The term “author” is not defined in the Copyright Act, but the legislative language and jurisprudence implies that “authors” are humans. Also undefined but implied, performers of performers’ performances must be human. Anyone can call themself an author or a performer regardless of whether or not they have created a copyright work or other copyright subject-matter. We submit, however, that it is not honest or ethical to do so for an AI-generated work. Not disclosing when an AI tool has been utilized in the creation of a work, or has created a work entirely on its own, crosses a line into commercial deception of the public by trading on the public’s long-standing presumption of human authorship when it comes to creativity.
More and more creators will use generative AI for research and many of them will create AI-assisted works, but generative AI without the intellectual involvement of human creators exercising skill and judgment (established as the criteria for original works by the 2004 CCH Canada decision of the Supreme Court of Canada) is not “original”. In the context of artificial intelligence, we think the criteria for assessing the originality of a work should clearly require creativity by a human author or other human creator. AI-generated material lacking human originality should not be protected by copyright and should not be permitted to display a copyright notice.
We are of the view that AI-assisted works and other subject-matter should be protected by copyright, assuming originality, effective and verifiable human control, and appropriate attribution to their human authors and performers. An AI-assisted work may and would ordinarily display a copyright notice because an artist using an AI tool in their creation of a work is much the same as a painter choosing to use a paintbrush. The use of an AI aid should not stand in the way of a human author’s ability to obtain copyright protection. An AI program creating a work in isolation of human intervention should not receive the same treatment.
Another significant concern with granting AI-generated works authorship in conjunction with ownership is that it could encourage bad actors to create works for the sole purpose of eventually bringing claims against human creators for infringement. Given the near endless works that they could generate a day, these AI-created works would flood the market and compete directly with original works created by human authors and their publishers and producers, as well as their broadcasters, wholesalers, retailers and other distributors. This will have the adverse effect of creating confusion in the marketplace, driving down prices, and inhibiting human creators’ incentive to generate new works.
It should be an offence for any person or entity, identifying themself as the owner, maker, publisher or author of an AI-generated work or other subject-matter without significant verifiable human intellectual involvement, including a measure of creativity (as we propose above) in addition to skill and judgment, to place a copyright notice on its publication. A machine-made work or other subject-matter lacking originality should never be protected by copyright. Nor should AI-assisted work or other subject-matter be protected by copyright unless: it contains substantial original material created by humans; its entire content is under effective, verifiable control of humans; and at least one human is identified as its author or publisher.
All owners of AI work should be liable for infringements of copyright and for torts (e.g., libel or slander, appropriation of personality rights or unjust enrichment). Producing any AI-generated or AI-assisted work which imitates or mimics the distinctive style of another writer could be viewed as an appropriation of personality rights. It could also be an infringement of a creator’s moral rights, especially their reputation.
An AI-assisted author would be liable, not just with respect to their own text, images and other changes (e.g., their edits, adaptations, additions and substitutions), but also because of the possibility that AI-generated material in the content of the work, unbeknownst to them, may infringe copyright or violate the rights of other authors. They may unwittingly incorporate AI-generated material that puts them at risk and should ascertain that the use of all copyright works in datasets for TDM used to train models that they used have been authorized by the copyright owners or holders or are works in the public domain. For example, a scriptwriter who is engaged by a producer to revise a draft script made by generative AI should be cautious.
Regulations should include an obligation to name or identify – and publish on every AI-generated publication – a responsible person or entity who will be liable in addition to any named and identifiable author or publisher of the publication.
Infringement and Liability regarding AI
• What are the barriers to determining whether an AI system accessed or copied a specific copyright-protected content when generating an infringing output?
The biggest barrier is the current lack of information on what copyrighted works are being input into a particular AI system. This is mainly because (a) AI developers like OpenAI, Google, Meta and StabilityAI (for example) do not publicly disclose what their data banks contain and how they compile their data sets for a particular program or iteration and (b) because the data banks being used are so phenomenally large. If courts want evidence of TDM to establish unauthorized access by the defendant, despite general availability of a creator’s work in the marketplace or a public forum, as well as substantial similarity between the creator’s work and the allegedly infringing AI-generated material, then the defendant’s must be required to disclose the contents of the data set for the AI program at issue. Assessing similarity will be subjective, may not be obvious, and will be extremely hard to determine or adjudicate in the absence of information about input.
Copying can occur (1) on actual reproduction when a copyrighted work is input into an AI system’s data bank, (2) when a user prompts an AI system to reproduce copyrighted words and images, and (3) when copyrighted material is reproduced by an AI algorithm. Because of the numerous opportunities for copyright infringement by AI there should be an obligation on developers to keep and retain records of all copyright material input into an AI system and to make those records fully available for monitoring by rightsholders and the public. Prior to any legal requirement by legislation or regulation, the Government should ask AI developers to do this on a voluntary basis. Knowledge or awareness of infringement or use of TDM without rightsholder consent should be presumed in law if AI developers or users of their AI tools fail to keep records and comply with other regulations.
• Should there be greater clarity on where liability lies when AI-generated works infringe existing copyright-protected works?
There absolutely should be greater clarity on where liability lies when it comes to AI-generated works that infringe existing copyright-protected works. To ensure certainty and predictability in the law, AI developers, platform developers and those claiming authorship or identifying as publishers of an AI-generated work should be liable or share liability for infringing copyrighted works just as they would be in a non-AI context. Producers of AI-generated content must be clear on what liability awaits them if they use copyrighted material without authorization. Equally, creators deserve to know their rights when it comes to enforcing copyright in an AI context. The
Comments and Suggestions
Artist’s Legal Services Ottawa (ALSO) is a non-profit corporation which, among other activities, facilitates and coordinates legal education and networking opportunities for artists working in all disciplines of the arts, and to arts organizations offering services to artists and other creators.
ALSO observes and submits as follows:
As AI continues to develop at an amazing speed, it is our view that it is too early for Parliament to pass any copyright legislation with respect to generative AI systems unless it becomes necessary to curb abuses of Text and Data Mining immediately. Appropriate amendments to the Artificial Intelligence and Data Act, currently under consideration by a House of Commons Committee, may allow regulation of AI-generated works to curb abuses of Text and Data Mining. These regulations could be established well prior to any amendments to the Copyright Act, which would likely be quickly outdated by further AI developments in Canada and elsewhere.
No legislation is needed right now to clarify that authorization from rightsholders is required prior to Text and Data Mining. It may be that some use of TDM and resulting AI-generated output will be accepted by courts, perhaps as “fair dealing” and this may suffice for the time being to deal with AI until it becomes necessary to set parameters on fair dealing, preferably by regulation in order to remain flexible. Section 30.71 of the Copyright Act permitting temporary reproductions for technological processes should eventually be amended to specifically exclude TDM if not ruled out earlier by court decisions.
Authors and other creators of copyrighted works or other subject-matter or, if authorized, their publishers, producers, or collective societies, may choose to license the use of their work to AI developers for TDM-specific purposes and uses, subject to negotiated limitations on use, fees, record-keeping, and other conditions negotiated with the generative-AI developers and platforms directly.
There should be no exceptions to the Copyright Act to accommodate developers of generative-AI platforms. Exceptions would encourage more use of entirely AI-generated works that would substitute for, compete with, and impair the market for original copyrightable works created by the skill and judgment of human authors as well as, in our opinion, their creativity, including original AI-assisted works.
What is desperately needed right now – prior to any eventual amendments to the Copyright Act – is much more information and transparency about any AI systems being used to generate published materials, including the sources of the data relied on for producing that content. This information should be easily available to rightsholders and the public, not just in case of alleged copyright infringement but in any case. Creators and users of AI systems should know what has been included in the datasets on which AI models have been “trained” and to be able to monitor compliance if they have authorized TDM. Furthermore, AI developers should develop generative-AI tools that will reject prompts by users of their systems that could recreate copyright works or that deliberately attempt to imitate the style of specifically named human authors.
AI developers, as well as generative AI platforms, credited publishers and producers of AI work, and individuals to whom authorship of such AI work is attributed should clearly label all such work as machine-generated; as such, these parties should be liable or share liability for infringing outputs. It should be an offence for any person or entity, identifying itself as the maker, publisher or author of an AI-generated work without significant verifiable human intellectual involvement and a measure of creativity, to place a copyright notice on its publication. Penalties for copyright infringement and statutory damages available to plaintiffs should be increased as the infringers or enablers of infringement are most likely to be large international technological corporations.
To recognize copyright in AI-generated works without originality due to human creativity and control would disrespect authors, performers and other artists working in all disciplines of the arts, demean their professions, reduce incomes earned by already struggling artists and force some to look for other careers. Moreover, incentivizing the proliferation of AI-generated works over human-created works would further reduce the number of jobs in Canada’s cultural sectors more broadly. This would be a devastating loss to Canadian culture, our economy, and society at large.
Parliament should not jump prematurely to enact copyright legislation on AI in this extraordinarily disruptive time before Canadian society gets accustomed to generative AI and the inevitable huge change to Canadian culture. There should be certainty that any changes to the Copyright Act will be compatible, to the extent reasonably possible, with the copyright laws of Canada’s main trading partners, particularly the United States, Europe, the United Kingdom, as well as the broader Commonwealth and Francophonie.
The technological progress of artificial intelligence is laudable, and we recognize that AI-generated material can have great value if used responsibly in appropriate contexts. But it should not encroach on human authorship and our broader societal values. Paragraph 2 of Article 27 of the Universal Declaration of Human Rights reminds us that “Everyone has the right to the protection of the moral and material interests resulting from any scientific, literary or artistic production of which he is the author.” It should not be forgotten that our Copyright Act is based on human authorship including the sole rights vested in authors set out in Section 3. Any exception from copyright with respect to AI must pass the 3-step test in Article 9(2) of the Berne Convention for the Protection of Literary and Artistic Works, which is echoed in the WIPO Copyright Treaty, the WIPO Performances and Phonograms Treaty and in the Canada-US-Mexico Agreement, providing that exceptions must not “unreasonably prejudice the legitimate interests of the author.”
Moreover, ensuring Canada’s copyright regime continues to advance and protect the rights of creators is paramount given that artists are fundamental to the creation and preservation of culture. The artistic contributions of minority groups, especially Canada’s Indigenous peoples, are specifically important to the creation and preservation of Canada’s diverse cultural fabric. Article 11 of the United Nations Declaration on the Rights of Indigenous Peoples, to which Canada is a signatory, specifically enshrines that indigenous peoples have a right to control their cultures, and in particular, their “visual and performing arts and literature”. Protecting artistic from AI-based copyright infringement will fulfill this obligation and ensure Canada’s indigenous communities maintain control over their vitally important artistic and cultural practices.
As AI continues to rapidly change the way we live, create, and do business all across the world, it is imperative that Parliament be thoughtful about its approach to copyright and AI, especially when it comes to fulfilling our international and treaty obligations. Canada’s copyright regime must remain consistent across the myriad emerging and advancing technologies, not only to uphold technological neutrality, but to ensure Canadian creators and businesses have clarity on their rights and obligations as they navigate, and thrive, in competitive global economies.
Thank you for considering our perspective on this important issue.
Association des réalisateurs et réalisatrices du Québec (ARRQ)
Preuve de nature technique
Nous sommes l’Association des réalisateurs et réalisatrices du Québec (ARRQ), une association professionnelle qui s’emploie à la défense des intérêts et des droits professionnels des réalisateurs et réalisatrices qui oeuvrent principalement en français et en toute autre langue que l’anglais notamment dans le secteur du cinéma, de la télévision, du web, de l’animation et de la publicité, quant à leurs conditions de création entre autre par le biais de la négociation d’ententes collectives.
Nous soutenons également les principes évoqués pas la CDEC dans son mémoire, lesquels visent à préserver la créativité humaine. Ces mêmes principes guident nos réponses à ce questionnaire.
Notre association voit le potentiel de l’IA à titre d’outil : plusieurs de nos membres s’en servent d’ailleurs comme source de recherche ou de point de départ de leurs processus créatifs. Il est néanmoins essentiel d’encadrer l’utilisation de la technologie, particulièrement dans le contexte de la fouille de textes et de données (« FTD »), puisque le contenu des créateurs est actuellement utilisé à cette fin à leur insu, sans rétribution.
Fouille de textes et de données
- Une plus grande clarté et transparence permettraient de mieux appréhender le fonctionnement de la FTD, incluant la façon dont les œuvres et autres objets de droit d’auteur sont utilisés, ainsi que les rôles et responsabilités des différentes parties prenantes. Ceci permettrait également de déterminer : (i) dans quel(s) contexte(s) l’analyse informationnelle est autorisée, ou non, par le régime actuel de droit d’auteur canadien et ainsi, (ii) quelles licences et rétributions doivent être versées aux titulaires d’œuvres et d’autres objets de droit d’auteur.
- Oui, des activités de FTD sont actuellement menées au Canada, afin d’entraîner des modèles algorithmiques. Les activités de développement et d’entraînement de systèmes d’IA peuvent impliquer la reproduction de contenus protégés par droit d’auteur (œuvres et autres objets de droit d’auteur tels que des prestations), sans que les titulaires de droits y consentent et reçoivent une juste rétribution. Ceci est évidemment problématique et il importe d’y remédier. En outre, il est essentiel que le consentement (de type « opt-in » et non « opt-out ») des titulaires de droits soit obtenu préalablement à toute reproduction de leurs contenus protégés, et qu’une rétribution juste et équitable leur soit versée en contrepartie de cette utilisation. L’obtention de ces consentements devra prendre en compte les particularités de chaque contenu reproduit.
- Oui. En outre, il est difficile pour les titulaires de droits d’auteur de déterminer quel contenu est utilisé dans le contexte de la FTD et quelle est l’ampleur de cette utilisation. Afin de pallier cette lacune, il pourrait être envisagé d’imposer une obligation de transparence ou de tenue de registres auprès des entités développant et entraînant des systèmes d’IA.
- Diverses licences sont disponibles pour les activités de FTD impliquant l’exercice d’un droit réservé aux titulaires de droit d’auteur, à savoir la reproduction. Ces licences peuvent être négociées de gré à gré avec les titulaires de droits d’auteur ou être obtenues par le biais d’une société de gestion collective. Ces licences ne semblent toutefois pas être obtenues par les personnes menant des activités de FTD. Ceci crée évidemment un manque à gagner pour les titulaires de droits d’auteur qui peinent à obtenir une juste compensation pour l’utilisation de leurs contenus. Afin de remédier à cette problématique, plusieurs mécanismes peuvent être envisagés, tels que l’introduction d’un droit à une rétribution équitable pour la FTD ou un droit à rétribution via un mécanisme semblable à celui de la copie pour usage privé.
- Nous ne sommes pas favorables à l’adoption d’une exception générale permettant la FTD, laquelle serait d’ailleurs contraire aux engagements du Canada en vertu de divers traités internationaux, tels que la Convention de Berne, l’ADPIC et l’ACEUM lesquels précisent que toute limitation ou exception à laquelle le Canada entend assujettir un droit d’auteur doit être restreinte à certains cas spéciaux où il n'est pas porté atteinte à l’exploitation normale de l’œuvre, ni causé de préjudice injustifié aux intérêts légitimes de l'auteur. Ainsi, si jamais le gouvernement décide d’adopter une exception de FTD (ce que nous ne recommandons pas), il devra veiller au respect de ses engagements internationaux, par exemple, en veillant à ce que l’exception soit : (i) limitée à des cas spécifiques (par exemple, à des fins de recherche) ; (ii) assujettie à des conditions d’application strictes (par exemple, l’accès à l’œuvre ou objet de droit d’auteur doit être licite) ; et (iii) assortie du versement d’une juste rétribution au bénéfice des titulaires de droits d’auteur, ainsi que d’un mécanisme de retrait (« opt-out ») pour les titulaires de droits d’auteur. Finalement, cette exception ne devrait pas s’appliquer aux droits moraux, mais uniquement aux droits dits « économiques ».
- Oui, nous le recommandons : il s’agit d’une obligation essentielle qui devrait être intégrée dans la Loi sur le droit d’auteur.
- Le niveau de rémunération doit être juste et équitable, basé sur les utilisations faites des contenus protégés. Dans tous les cas, la rémunération devrait être arrimée avec les autorisations obtenues et prendre en compte les particularités de chaque contenu reproduit.
- Comme exposé plus tôt, il n’est pas recommandé d’introduire une exception de FTD au Canada. Au contraire, il est essentiel de veiller au respect de la Loi sur le droit d’auteur en s’assurant que le consentement des créateurs soit obtenu et qu’une rétribution juste et équitable leur soit versée lorsque leur contenu est utilisé à des fins de FTD. Nous recommandons également qu’une obligation de transparence ou de tenue de registres soit imposées aux chercheurs et développeurs de systèmes d’IA générative, dans le contexte de la FTD. Si toutefois le Canada souhaite introduire une exception de FTD, il devra veiller à ce que cette exception respecte les balises internationales, soit d’application limitée et assortie d’un mécanisme de retrait (« opt-out ») pour les titulaires de droits d’auteur. À cette fin, le gouvernement canadien pourrait examiner la situation prévalant au sein de l’Union européenne, la Suisse et le Royaume-Uni.
Titularité et propriété des œuvres produites par l’IA
- Oui. Cette incertitude a notamment des répercussions sur la rémunération des artistes tels que les musiciens, dont le contenu se retrouve « dilué » sur des plateformes telles que Spotify.
- Nous ne recommandons pas de protéger des créations « artificielles » dépourvues de créativité humaine. Quoique la jurisprudence canadienne ait défini les concepts d’originalité et d’autorat, ces concepts demeurent flous et malléables. Le gouvernement pourrait donc préciser qu’un « auteur », aux fins de la Loi sur le droit d’auteur, est obligatoirement un être humain. Ceci permettrait d’avoir plus de certitude quant à l’application de la Loi sur le droit d’auteur.
- Le Royaume-Uni, l’Irlande et la Nouvelle-Zélande sont souvent cités en exemple sur cette question. Les législations de droit d’auteur de ces pays attribuent en effet la titularité d'œuvres générées par ordinateur à la personne qui a pris les dispositions nécessaires à la création de l’œuvre créée. Nous ne recommandons toutefois pas d’emprunter cette voie, car ces dispositions ont été introduites dans un contexte étranger à l’IA générative. Or, cette technologie soulève des questions bien plus complexes. Au surplus, avant même d’adresser la question de la titularité des « œuvres générées par ordinateur », il convient de statuer sur leur protection. Afin de clarifier cette question, nous recommandons de clarifier certains concepts phares de la Loi sur le droit d’auteur, tel que l’autorat en précisant qu’un « auteur », aux fins de la Loi sur le droit d’auteur, est obligatoirement un être humain.
Violation et responsabilité en matière d’IA
- Oui. Il peut être difficile pour un titulaire de droits d’auteur : (i) d’identifier le contenu contrefait, ainsi que la ou les personnes responsables de la violation ; et (ii) d’établir que la partie qui a violé le droit d'auteur a eu accès à l'œuvre originale, que l'œuvre originale était la source de la copie et qu’une partie importante de l'œuvre a été reproduite.
- La pluralité des intervenants et l’opacité des systèmes d’IA rend les prestations originales difficilement identifiables.
- Les entreprises pourraient obtenir des licences, mais nous n’avons pas connaissance d’un tel phénomène. Alternativement, il est possible d’utiliser du contenu libre de droits, incluant des œuvres tombées dans le domaine public. Dans ce dernier cas, l’utilisation d’œuvres du domaine public est susceptible d’avoir une incidence négative sur la qualité des systèmes d’IA, puisque les données d’entraînement pourraient être désuètes.
- Non, la Loi sur le droit d’auteur dispose de mécanismes suffisants pour déterminer la responsabilité en cas de violation de droit d’auteur. Toutefois, le Canada pourrait imposer une obligation de transparence ou de tenue de registres auprès des entités développant et entraînant des systèmes d’IA.
- Oui. Dans son projet de règlement « AI Act », le Parlement européen a introduit une obligation de transparence, de sorte que les entités qui développent des systèmes d’IA devront publier un résumé suffisamment détaillé de leur utilisation de « données d’entraînement protégées par la législation sur le droit d’auteur », ainsi qu’une information appropriée, claire et visible qui distingue le contenu généré de l’original. Cette approche nous paraît louable, mais le Canada devrait aller encore plus loin. En outre, l’obligation de transparence canadienne devrait également s’appliquer aux prestations et à leurs composantes (voix, image et ressemblance de l’artiste-interprète), ainsi qu’aux résultats générés par ou avec IA.
Commentaires et suggestions
La consultation publique est accueillie favorablement par notre association, laquelle voit en cet exercice une volonté du gouvernement de clarifier les incidences de l’IA sur le droit d’auteur. Notre association ne souhaite pas freiner l’avancement de l’IA, mais désire préserver l’équilibre que la Loi sur le droit d’auteur sous-tend, en veillant à préserver la culture canadienne, la créativité humaine, ainsi que les intérêts des titulaires de droits d’auteur. Pour ce faire, nous recommandons que les principes regroupés sous l’acronyme « A.R.T. » (Autorisation, Rétribution et Transparence) guident les actions du gouvernement, dans le contexte de cette consultation publique et des possibles amendements à la Loi sur le droit d’auteur qui en découleront.
Association nationale des éditeurs de livres (ANEL)
Preuve de nature technique
L’Association nationale des éditeurs de livres (« ANEL ») [https://www.anel.qc.ca] se réjouit de répondre à la consultation d’Innovation, Sciences et Développement économique Canada (« ISDE »), initiée en octobre 2023, sur le droit d’auteur à l’ère de l’intelligence artificielle générative (« Consultation »).
L’ANEL regroupe la grande majorité des maisons d’édition de livres francophones au pays. Leur secteur s’appuie sur le droit d’auteur, en particulier sur les droits exclusifs permettant d’autoriser ou d’interdire l’utilisation d’œuvres et d’accorder des licences moyennant rémunération pour leur utilisation.
À l’ère de l’intelligence artificielle (IA) générative, il est fondamental pour le Canada de soutenir l’innovation et la créativité humaine, d’encourager l’offre légale et d’améliorer la capacité du secteur du livre à contrôler l’exploitation des œuvres. Tous les acteurs(1) du marché, qu’ils soient de l’éducation ou des technologies, doivent être encouragés à soutenir les intérêts légitimes des créateurs canadiens au bénéfice de l’innovation, du savoir, de l’éducation, du rayonnement, de la diversité et de l’économie du pays.
Depuis plus de trente ans, l’ANEL et ses partenaires multiplient avec succès les actions en faveur de l’édition canadienne de livres de langue française. Avec la plus grande fédération d’associations d’éditeurs au monde, l’International Publishers Association (« IPA ») [https://internationalpublishers.org/about/], l’ANEL promeut l’édition mondiale comme vecteur de développement économique, culturel et social en valorisant la liberté de publication, le droit d’auteur, l’alphabétisation, l’éducation, l’accès universel au livre et la diversité culturelle. Au Canada, l’ANEL est membre de la Coalition pour la diversité des expressions culturelles (CDEC) [https://cdec-cdce.org/fr/a-propos/] et, avec l’Union nationale des écrivaines et écrivains (« UNEQ ») [https://www.uneq.qc.ca], elle a créé Copibec [https://www.copibec.ca/fr], la société québécoise de gestion collective des droits de reproduction, qui offre aux utilisateurs d’œuvres et aux titulaires de droits d’auteur des solutions simples et adaptées à leurs besoins comme des licences d’utilisation, des autorisations à la pièce, la gestion de droit d’auteur et de redevances, une plateforme numérique pour le milieu de l’enseignement ou des services aux élèves ayant des déficiences perceptuelles.
Avec Québec Édition, son comité dédié au rayonnement international, l’ANEL et ses partenaires soutiennent activement l’exportation de livres canadiens par la tenue de kiosques collectifs dans des foires et salons internationaux, par l’accueil de cohortes d’éditeurs, de libraires et de journalistes étrangers, et par différents projets soutenant la profession.
Concrètement, l’ANEL promeut les œuvres canadiennes dans tous les pays francophones et favorise leur traduction en Allemagne, en Argentine, en Chine, en Égypte, en Espagne, aux États-Unis, au Mexique, en Islande, en Suède, en Serbie et en Turquie, pour ne nommer que ces pays.
Dynamique, contemporaine, universelle et variée, l’édition canadienne francophone bénéficie d’un succès hors du commun au Canada comme à l’étranger :
- Au prorata de la population canadienne francophone, son volume est comparable à ceux de la France, de l’Italie ou de l’Allemagne
- Au Québec seulement, la vente de livres neufs représente un marché annuel de 677,8 M $ (2022)
- La part de marché des 300 maisons d’édition de propriété canadienne est spectaculaire avec 50% des ventes, et ce, malgré quelque 900 éditeurs étrangers distribués sur leur territoire
- À l’international, l’édition canadienne francophone fait rayonner le pays en se méritant de prestigieux prix littéraires(2) et en se taillant une place de choix auprès de publics grandissants.
Chaque maison d’édition a sa propre stratégie de commercialisation internationale, mais deux grands modèles ressortent : la cession de droits – les droits de commercialisation du livre sont cédés à un éditeur étranger – et la distribution directe qui est en progression. Peu importe le modèle, plus la littérature d’ici se fait connaître à l’international, plus elle séduit les lecteurs, plus elle se fait remarquer par les jurys, plus elle est primée et plus elle se vend sur tous les continents, sans oublier le Canada.
À l’occasion de la présente Consultation, nous verrons combien le succès de l’édition canadienne francophone et de toutes langues est voué à l’échec sans le respect des principes fondamentaux du droit d’auteur et des engagements internationaux du Canada en la matière.
(1) À l’instar du document et du formulaire d’ISDE auxquelles l’ANEL répond à l’occasion de la présente Consultation, l’utilisation du masculin se veut neutre et inclusive de tous genres.
(2) À titre d’illustrations récentes :
- « La belle année 2023 du livre québécois en France » [https://ici.radio-canada.ca/nouvelle/2036828/livres-litterature-quebec-france-romans]
- « Quand le Québec fait mouche » [https://revue.leslibraires.ca/actualites/les-prix-litteraires/quand-le-quebec-fait-mouche/]
Fouille de textes et de données
Il est essentiel pour le secteur du livre canadien de pouvoir continuer d’accorder – ou de refuser d’accorder – des autorisations et de négocier une rémunération pour l’utilisation d’œuvres protégées, comme « données d’entraînement » pour la fouille de textes et de données (« FTD ») ou pour d’autres utilisations.
Le Canada ne doit surtout pas introduire à la Loi sur le droit d’auteur d’exception ou d’exonération permettant de reproduire ou de s’approprier autrement, sans autorisation, les œuvres protégées afin de faciliter l’IA générative, que ce soit sa création, son exploitation ou les produits et services qui en découlent. Au contraire, le Canada doit encourager le marché naissant d’octrois de licence pour activités de fouille de textes et données (FTD) en exigeant des développeurs de systèmes d’IA de tenir des registres et de divulguer les contenus protégés par le droit d’auteur utilisés pour la formation de leurs systèmes.
Selon la Convention de Berne [Voir https://www.wipo.int/wipolex/fr/text/283695] liant le Canada, toute adaptation à l’encadrement du droit d’auteur doit avoir pour but premier de permettre aux titulaires de droit de continuer à contrôler l’exploitation de leurs œuvres et non de réduire la portée de leurs droits pour satisfaire d’autres industries.
L’ajout d’une exception permettant l’utilisation non autorisée d’œuvres protégées par le droit d’auteur pour former et/ou produire des résultats et d’autres applications d’IA générative serait clairement en contradiction avec le test en trois étapes du paragraphe 9 (2) de cette convention, car elle porterait injustement atteinte aux intérêts légitimes des auteurs et des éditeurs, les empêchant d’exercer leurs droits d’exploitation des œuvres par le biais d’autorisation. Une telle exception permettant la FTD serait non seulement contraire aux engagements du Canada en vertu de la Convention de Berne, mais aussi du paragraphe 10 (2) du Traité de l’OMPI sur le droit d’auteur (WCT) [Voir https://www.wipo.int/wipolex/fr/text/295159], de l’article 13 de l’Accord sur les aspects des droits de propriété intellectuelle qui touchent au commerce (Accord sur les ADPIC) [Voir https://www.wipo.int/wipolex/fr/text/305756] et du paragraphe 20.64 (1) de l’Accord Canada–États-Unis–Mexique (ACEUM) [Voir https://www.international.gc.ca/trade-commerce/trade-agreements-accords-commerciaux/agr-acc/cusma-aceum/text-texte/20.aspx?lang=fra], pour ne nommer que ces textes.
La Loi sur le droit d’auteur confère notamment aux titulaires le droit exclusif de reproduire leurs œuvres ou toute partie substantielle de celles-ci, et d’autoriser de tels actes. Lorsque des œuvres protégées par le droit d’auteur sont intégrées dans des systèmes d’IA générative, ces droits sont engagés. La permission de les utiliser est tout aussi importante que la compensation pouvant en découler, en particulier lorsque la production du système d’IA peut concurrencer l’œuvre originale, s’y substituer ou préjudicier le droit moral de l’auteur.
C’est au marché du livre et de l’IA de trancher ces questions, et non au gouvernement de le faire.
Le document de la présente Consultation évoque la Directive européenne de 2019 exigeant des États membres qu’ils prévoient deux exceptions pour la FTD : l’une pour les institutions de recherche et de patrimoine, et l’autre pour toute autre personne et à toute autre fin dont les titulaires de droits peuvent « se retirer » (opt-out). Or, toute suggestion canadienne de régime de retrait (opt-out) pour la FTD serait à la fois injuste, controversée et impraticable. L’introduction d’une exception qui donnerait aux titulaires de droits la possibilité de « se retirer » (opt-out) d’une telle exception renverserait le droit d’auteur. Au Canada, le droit d’auteur est un système d’opt-in : aucune formalité n’est requise pour qu’une œuvre bénéficie de sa protection. Exiger des titulaires de droit qu’ils informent les services d’IA qu’ils s’opposent à l’utilisation de leurs œuvres serait une formalité incompatible avec le droit canadien et violerait les obligations internationales du Canada.
Dans d’autres juridictions, un régime de licence obligatoire a été suggéré pour la FTD. Or, les licences obligatoires privent les titulaires de droits d’auteur de leurs droits exclusifs d’autoriser ou d’interdire la reproduction de leurs œuvres par des services voulant cannibaliser leur travail au profit d’un contenu substitut qui leur est préjudiciable.
Respectueusement, la question de savoir quand et comment les ayants droit devraient être rémunérés lorsqu’ils permettent l’utilisation de leurs œuvres comme inputs de systèmes de formation d’IA générative devrait pas, non plus, relever du gouvernement. La rémunération appropriée pour l’utilisation d’une œuvre donnée doit faire l’objet de négociations entre les titulaires de droits et les plateformes d’IA générative, être déterminée par le marché, la Commission du droit d’auteur ou les tribunaux. S’il peut y avoir des cas où les titulaires de droits conviennent avec un service qu’une compensation n’est pas nécessaire, ce n’est pas au gouvernement de trancher cette question, car il ne ferait qu’entraver les négociations et empêcherait le marché de développer ses propres solutions.
Sur le marché, Publishing Perspective publiait récemment un article concernant l’action du New York Times contre OpenAI et Microsoft parallèlement aux actions en justice de l’industrie de l’édition de livres. On y relate que certains éditeurs, comme le Times, intentent des actions en justice, tandis que d’autres négocient une compensation avec OpenAI, Microsoft ou Google. Déjà, des éditeurs comme l’Associated Press et Axel Springer (Politico, Business Insider) ont conclu des accords commerciaux pour concéder sous licence leur contenu à OpenAI. [Voir https://publishingperspectives.com/2024/01/ai-copyright-challenges-now-include-a-new-york-times-lawsuit/] Ce n’est pas au gouvernement d’intervenir dans ces négociations ou ces litiges commerciaux.
Le Canada doit encourager la créativité et l’investissement des Canadiens et s’abstenir de les exproprier de leurs droits d’auteurs afin de répondre aux besoins d’entreprises et de leurs activités commerciales. Sa législation sur le droit d’auteur doit permettre aux titulaires de négocier librement les conditions d’utilisation auxquelles ils consentent. Des autorisations notamment pour la reproduction, l’adaptation et la communication au public d’œuvres protégées doivent continuer d’être requises, sans oublier le respect des droits moraux. Si un produit de l’IA plagie une œuvre protégée, ses ayants droit doivent pouvoir continuer d’invoquer des infractions au droit d’auteur.
Enfin, nous reviendrons sur la nécessité d’obliger les développeurs de systèmes d’IA à la tenue de registres et à la divulgation de contenus protégés à la rubrique « Violation et responsabilité en matière d’IA », une obligation en phase avec la Convention de Berne selon laquelle toute adaptation à l’encadrement du droit d’auteur doit avoir pour but premier de permettre aux titulaires de droit de continuer à contrôler l’exploitation de leurs œuvres.
Titularité et propriété des œuvres produites par l’IA
En ce qui a trait à la titularité et à la propriété du droit d’auteur, aucun changement ne doit être apporté à la législation canadienne afin d’accorder des droits sur les produits de l’IA ne résultant pas d’apports originaux humains.
Le Canada doit éviter de transformer le droit d’auteur en instrument visant à mettre à la disposition du public le plus grand nombre de « productions » relevant des genres littéraires, artistiques, musicaux ou dramatiques, qu’elles soient le fruit de la créativité humaine ou le produit logiciel d’œuvres reproduites, a fortiori si elles le sont sans autorisation, sans oublier que la production massive de contenu pseudo-culturel généré par les systèmes d’IA générative serait, socialement, très préoccupante.
La création ne doit pas être le fruit d’entreprises technologiques cherchant à commercialiser leurs produits et les personnes humaines doivent continuer d’être encouragées, par le droit d’auteur, à exprimer leurs idées, leur créativité et leurs perspectives.
Par ailleurs, une personne humaine qui utilise l’IA générative comme outil pour créer une nouvelle œuvre pourrait en être considérée l’auteur si son acte de création satisfaisait ou dépassait les critères d’originalité énoncés par la Cour suprême du Canada dans CCH Canadien ltée c. Barreau du Haut-Canada [2004] 1 RCS 339 [Voir https://scc-csc.lexum.com/scc-csc/scc-csc/fr/item/2125/index.do].
Violation et responsabilité en matière d’IA
Les développeurs et les opérateurs d’IA doivent assumer leur responsabilité en obtenant l’autorisation des titulaires de droit d’auteur et, dans la négative, être exposés à des poursuites de ces titulaires.
L’objectif de la présente Consultation sur l’IA générative devrait être de promouvoir un marché des licences plus efficace et plus fonctionnel.
Pour ce faire, il est essentiel que la Loi sur le droit d’auteur (« Loi ») [https://laws-lois.justice.gc.ca/fra/lois/c-42/index.html] continue d’être opposable à l’entraînement de l’intelligence artificielle (« IA ») utilisant des œuvres protégées, l’incorporation d’une œuvre dans un système constituant notamment une « reproduction » de la totalité ou d’une partie importante de l’œuvre. Heureusement, aucune exception au droit d’auteur ne permet d’échapper à l’exigence de demander l’autorisation aux titulaires de droits.
Pour être couverte par l’exception canadienne d’utilisation équitable, la reproduction devrait être effectuée à l’une des fins énumérées dans la Loi et elle ne serait « équitable » que selon les critères établis par la Cour suprême du Canada dans l’arrêt CCH Canadien ltée c. Barreau du Haut-Canada [2004] 1 RCS 339, ce qui exclut un contexte «algorithmique » notamment pour l’ampleur de l’utilisation des œuvres protégées. En ce qui a trait à l’exception de reproduction temporaire, elle ne saurait non plus s’appliquer sans être temporaire, technique et accessoire, ce qui n’est pas le cas à l’occasion de la création d’un processus algorithmique d’IA générative.
En outre, plutôt qu’exonérer de leurs responsabilités développeurs et opérateurs, il est nécessaire d’exiger des systèmes d’IA générative qu’ils publient des informations sur les contenus protégés par le droit d’auteur intégrés dans leurs systèmes afin que les titulaires de droits d’auteur puissent plus efficacement protéger et monétiser leur propriété intellectuelle.
Des obligations de transparence exigeant des plateformes d’IA générative de divulguer les registres de contenu protégé par le droit d’auteur utilisé à des fins de formation – par opposition à la création de nouvelles exceptions – sont le meilleur moyen de garantir que l’IA générative puisse continuer à innover dans un système de droit d’auteur qui encourage les humains à créer et à diffuser leur travail.
L’exigence de transparence favoriserait un marché de licences plus efficace et fonctionnel où les titulaires de droits et l’industrie technologique pourraient négocier en réduisant leur asymétrie d’information. Avec plus de transparence des systèmes d’IA, les ayants droit auraient accès à des informations essentielles pour la gestion de leurs droits, alors que les utilisateurs des systèmes disposeraient d’informations cruciales sur les sources et les biais pouvant être inhérents au système utilisé.
En cas de contrefaçon impliquant l’IA générative, il nous semble que la Loi sur le droit d’auteur serait suffisante pour en disposer dans la mesure où les exigences de transparence proposées sont mises en place.
Bien que ces exigences de transparence ne soient pas spécifiques au droit d’auteur et qu’elles puissent faire l’objet d’une autre législation, elles contribueraient à garantir que les systèmes d’IA générative soient responsables, légaux, sûrs, transparents et non discriminatoires.
Enfin, le gouvernement du Canada ne doit pas négliger l’impact de l’IA générative sur les droits moraux des auteurs, y compris leurs droits à l’intégrité, ainsi que sur les droits de la personnalité de tous les Canadiens.
Commentaires et suggestions
Nous avons vu que le secteur du livre insistait sur l’importance de ne pas changer la législation pour permettre à l’industrie de l’IA d’utiliser sans autorisation des œuvres protégées et pour accorder un droit d’auteur aux produits de l’IA ne résultant pas d’apports originaux humains.
La législation canadienne sur le droit d’auteur doit plutôt soutenir l’innovation et la créativité humaine en encourageant l’offre légale, l’octroi de licence et en responsabilisant tous les acteurs de son marché, qu’ils soient de l’éducation ou des technologies de l’IA.
Il ne faut surtout pas aggraver la situation par l’introduction de nouvelles atténuations et exceptions. Au contraire, le Canada doit réviser la Loi sur le droit d’auteur pour mettre un terme aux interprétations arbitraires du secteur de l’éducation et aux dommages sans précédent qui en découlent pour le secteur du livre, comme énoncé par un autre comité de la Chambre des communes(3) recommandant qu’auteurs et éditeurs de livres puissent de nouveau recevoir leur juste part de l’utilisation de leurs œuvres publiées dans le secteur de l’éducation.
Les auteurs et les éditeurs de livres souffrent toujours, en effet, de changements très controversés apportés à la Loi sur le droit d’auteur en 2012, particulièrement l’introduction d’exceptions ayant eu pour résultat de susciter des débats et de priver injustement les ayants-droits de redevances essentielles. Dans ce dossier, soulignons que la décision de la Cour suprême du Canada dans Université York c. Canadian Copyright Licensing Agency (Access Copyright) [2021] CSC 32 n’a pas clarifié les dispositions législatives en cause : elle a encouragé certains utilisateurs à repousser injustement les limites de celles-ci, faisant perdre aux auteurs et aux éditeurs des revenus légitimes considérables. Ces pertes, chiffrés à plus de 200 M sur dix ans, se poursuivent tant que le gouvernement canadien ne résout pas cette problématique pourtant si simple à régler.
À cette fin, il suffit au gouvernement d’adapter la Loi sur le droit d’auteur pour préciser que :
- les tarifs de la Commission du droit d’auteur sont opposables aux auteurs de contrefaçons d’œuvres protégées assujetties à un tarif;
- l’utilisation équitable à des fins éducatives ne s’applique que lorsqu’une œuvre n’est pas disponible sur le marché par l’entremise de son éditeur ou d’une société de gestion collective;
- des dommages-intérêts préétablis adéquats sont accordés à toutes les sociétés de gestion des droits d’auteur.
En conclusion, les ayants-droits du livre canadien ont urgemment besoin d’un cadre réglementaire protégeant plus adéquatement leur création, leur innovation, leur investissement et leur travail. Le Canada doit s’empresser d’améliorer la Loi sur le droit d’auteur pour cesser de les priver injustement de revenus légitimes à l’occasion de l’utilisation d’œuvres dans certains établissements d’enseignement.
Rappelons que cette priorité est soutenue par les fédérations internationales du livre et par la Coalition pour la diversité des expressions culturelles (« CDEC ») qui réunit, au pays, les principales organisations de professionnels anglophones et francophones du secteur culturel, soit plus de 360 000 créateurs et professionnels et 2 900 entreprises, tous sont outrées que le Canada enfreigne ses obligations internationales en droit d’auteur.
À l’occasion de la présente Consultation, rappelons que la première des six priorités urgentes de la CDEC est de modifier les dispositions relatives à l’utilisation équitable dans le contexte de l’éducation afin qu’elles ne s’appliquent que lorsqu’une œuvre n’est pas disponible dans le commerce en vertu d’une licence accordée par le titulaire des droits ou une société de gestion collective.
Cet automne, la CDEC énonçait ce qui suit :
« Les membres de la CDEC ont établi un ordre de priorité pour six recommandations qui doivent être prises en compte à l’automne, mais souhaitent également rappeler que six autres recommandations devraient être prises en compte à moyen terme.
(…) Le secteur culturel a été bouleversé par l’accès croissant aux contenus culturels par l’Internet au cours des années 2010 puis par la révision de la Loi sur le droit d’auteur en 2012, qui a ajouté plusieurs exceptions qui ne respectent pas les obligations internationales du Canada. Le secteur culturel a été bouleversé par l’accès croissant aux contenus culturels par l’Internet au cours des années 2010 puis par la révision de la Loi sur le droit d’auteur en 2012, qui a ajouté plusieurs exceptions qui ne respectent pas les obligations internationales du Canada.
Le marché des droits, qui était déjà bouleversé par le numérique, est en train de s’effondrer.
La récente conclusion de la Cour Suprême du Canada dans le litige opposant Access Copyright à l’Université de York porte gravement atteinte à la capacité des créateurs à faire valoir leurs droits et à recevoir une juste rémunération pour l’utilisation de leurs œuvres. Le gouvernement doit modifier la Loi de toute urgence afin de réaffirmer son engagement à assurer une rémunération équitable aux titulaires de droits. Nous estimons qu’aucune consultation n’est nécessaire avant le dépôt d’un projet de loi. Au-delà des emplois et de la contribution de la culture à notre économie, c’est la vitalité du secteur et la diversité des expressions culturelles qui sont en jeu. Pendant ce temps, les entreprises qui donnent accès aux contenus culturels en ligne ont réalisé des profits sans précédent. Elles ont les moyens de mieux rémunérer les titulaires de droits pour la valeur qu’elles tirent des contenus protégés par le droit d’auteur. » (4)
Lorsque les dispositions relatives à l’utilisation équitable dans le contexte de l’éducation seront précisées et que d’autres priorités du secteur culturel seront réalisées dans la Loi sur le droit d’auteur, le Canada devra par ailleurs responsabiliser davantage l’industrie de l’intelligence artificielle par des obligations de transparence essentielle au développement d’un écosystème d’IA équitable et sûr. Autrement, le marché des droits va poursuivre sa chute et des modèles d’IA générative vont continuer de se développer de manière opaque, injuste, illégale et au mépris des créateurs, des entrepreneurs, de la culture, de l’innovation, du savoir, de l’éducation, du rayonnement, de la diversité et de l’économie de notre pays.
-
(3) Rapport du Comité permanent de la science et de la recherche sur le soutien à la commercialisation de la propriété intellectuelle, Novembre 2023, Pages 45 à 47 et Recommandation 10 [Voir : https://www.ourcommons.ca/documentviewer/fr/44-1/SRSR/rapport-7]
Association of Canadian Publishers
Technical Evidence
Canadian book publishers that are members of the Association of Canadian Publishers have begun to use AI-assisted tools for proofing text and audio, translation, audiobook narration, and illustration.
Proofing tools in particular have localization issues as they do not reflect Canadian orthography or style.
It is inevitable that additional tools for processes like sales data analysis and inventory management will be adopted by the sector as they come to market.
At least one notable Canadian author has co-authored a book with generative AI: Stephen Marche’s Death of an Author was written with the assistance of ChatGPT, Sundowrite, and Cohere, and has been widely reviewed.
There are parties that are publishing large quantities of AI-generated books; however, they are not affiliated with our organization’s members.
Text and Data Mining
What would more clarity around copyright and TDM in Canada mean for the AI industry and the creative industry?
Some legal professionals (including some cases seen in other jurisdictions) take the position that copyright does not apply to TDM activities, due to the application of existing exceptions in the copyright act and the nature of the technical processes involved. ACP rejects these interpretations on the basis that the training of generative AI models on works of creative expression is not simply a matter of “data mining.” While data itself is not subject to copyright protection, the expressive qualities of the texts in question are. These expressive aspects are key to the success of any large language model AI and the use of those expressive aspects are an infringement of copyright.
Introducing an exception for TDM would not pass the three-step test under the Berne Convention:
* A blanket exception for TDM/generative AI training would be the picture of “overly broad” in scope and reach and would not be limited to “certain special cases:” it would enable a wide range of uncompensated uses.
* A TDM exception robs rightsholders of a real and potential source of substantive income: publishers are already being approached for TDM licences by the developers of generative AI and there is a developing licensing market for these uses.
In undermining creators’ moral rights, and creating a new source of market competition for the sale and licensing of creators’ own works, an exception would do disproportional harm to rightsholders, most of whom are independent working artists and small to medium sized enterprises.
* TDM is a process that extracts value from creative works, and in doing so has the potential to undermine the market for the works that are copied and used in the course of this activity. ACP’s position is that copyright is triggered during these processes. The application of copyright will allow:
* The continued development and establishment of a functional rights market for TDM activities
* The protection of authors’ moral rights to the integrity of their works
* The protection of creative livelihoods and the viability of future creative work
Are rights holders facing challenges in licensing their works for TDM activities? If so, what is the nature and extent of those challenges?
Some rights holders, specifically university and scholarly publishers with large catalogues of valuable works, are being approached for TDM licences. Other than negotiating a fair price in the absence of established precedents, they face no particular challenges in making their works available and licensing their works when appropriate.
The Copyright Clearance Center (CCC) in the United States has offered TDM licences for the use of literary and artistic works for several years.
Many Scientific, Technical and Medical journal publishers have been offering TDM licences in Canada for a long time.
In the absence of a clear copyright regime, smaller rights holders are simply not being approached for licences. This is a decision made by AI operators to avoid licensing.
In the case of book publishers, works are being accessed for TDM activities via pirated datasets that are circulating online. Thousands of in-copyright Canadian-authored and Canadian-published books appear in the “Books3” corpus that has been used without permission or compensation by Meta, Bloomberg, and others to train commercial generative AI products. The use of this dataset is already subject to several lawsuits in the USA.
In some cases, publishers may not hold TDM rights to begin with, as they were not contemplated when author contracts were signed. This is not an insurmountable challenge, as authors and publishers are able to negotiate contract amendments with authors, and stand ready to offer licensing solutions. The largescale renegotiation of contracts that allowed publishers to issue books in digital format is a precedent for this adaptation.
What kind of copyright licenses for TDM activities are available, and do these licenses meet the needs of those conducting TDM activities?
The ACP members who have been approached for TDM licenses are tailoring those agreements to the specific needs of the licensor.
Some writers and artists believe that licensing their works to train generative AI systems would be sowing the seeds of their own obsolescence. They do not wish to do it and will not tolerate being compelled to do it. Only a free market that can establish the financial value of a licence will address this concern. Ultimately, if an author or publisher determines that licensing their works for TDM activities undermines their work or harms the market for their works, they must remain entitled to exercise their exclusive rights to say no.
The ACP disagrees with any suggestion that a compulsory collective licensing regime might be appropriate for TDM uses. The ACP favours a negotiated, non-compulsory licence regime for TDM uses. Canada, like all developed countries, has well-established collective licensing organizations that are able to negotiate, collect, and remit compensation to rights holders at scale as appropriate. In many circumstances, especially when rights holders already hold large volumes of high-value content, it may be preferable for licensing to be negotiated outside of a collective society, and the law should allow for this.
If the Government were to amend the Act to clarify the scope of permissible TDM activities, what should be its scope and safeguards? What would be the expected impact of such an exception on your industry and activities?
No new exceptions for TDM activities are required. New exceptions that undermine the opportunity to develop a market, or that undermine rights holders’ option to not licence works for development of AI, are unacceptable under the Berne Convention’s three-step test.
Such exceptions would devalue writers’ and publishers’ investment in intellectual property. This would be an attack on the livelihoods of authors, publishers, and everyone affiliated with our industry.
Systematic unlicensed uses already undermine the rights and interests of authors and publishers, and new legislation or policy should rein in these practices, rather than giving them legitimacy.
Unintended consequences of copyright exceptions are inevitable, so legislation must be crafted with care, and reviewed and updated regularly. Despite Canada’s commitment to reviewing the Copyright Act every five years, the recommendations of these reviews have not to date been adopted, with the last major revision to the Act having taken place in 2012.
Existing exceptions should be tightened and potentially reworded to clarify that TDM is not allowed under an exception to copyright infringement. The creation of generative AI was not a seriously contemplated use of the temporary reproductions for technological processes exception when it was introduced in 2012. However, this exception, which is necessary to the functioning of many digital goods and services, is now being used to justify the unlicensed training of AI using in-copyright materials.
Existing penalties for infringement are insufficient to the challenge of regulating the use of in-copyright material at scale by the world’s largest corporate interests. Legislation should clarify that remedies for infringement of copyright in AI development include measures up to and including deletions or take-downs of AI systems and platforms, as well as damages.
Moral rights – the rights of authors to attribution, integrity, and association – must be protected. When an author’s permission is not granted, generative AI has a high risk of undermining these rights due to its ability to create works derivative of, or in the style of, works that have been used in the training process.
Legislation should clarify that machine-readable reservations of TDM rights must be respected by AI developers.
Should there be any obligations on AI developers to keep records of or disclose what copyright-protected content was used in the training of AI systems?
Disclosure of the use of copyright-protected content is essential to a functioning rights marketplace, and to the enforcement of copyright. Transparency with respect to works used to train or develop AIs is essential to the ability of rights holders to exercise and protect their rights, including the moral right of attribution. It is unacceptable for AI developers to claim that this information is proprietary, while not respecting the rights of the creators and publishers of the works themselves. Government policy should include appropriate record keeping and disclosure provisions.
What level of remuneration would be appropriate for the use of a given work in TDM activities?
Remuneration must be negotiated between the rightsholder, or an agent acting on their behalf, and the user. It should not be prescribed by the government.
Remuneration under a direct licensing model must be set through negotiation between the author, publisher, and licensor.
Are there TDM approaches in other jurisdictions that could inform a Canadian consideration of this issue?
The transparency principles proposed in the European Union AI Act are a good starting point, but are not yet finalized at the time of submission.
The European Union AI act proposes that only AI models that are trained in compliance with EU law may operate in the EU. Such a provision is essential to avoid a “race to the bottom” through simply training models in jurisdictions with blanket exceptions, such as Japan and Singapore.
Authorship and Ownership of Works Generated by AI
Is the uncertainty surrounding authorship or ownership of AI-assisted and AI-generated works and other subject matter impacting the development and adoption of AI technologies? If so, how?
Uncertainty surrounding authorship has not substantially impacted the adoption of the tools currently available for use by book publishers. These tools are generally being used in support of human creativity, not as a replacement for it. In the rare cases where Canadian book publishers are using wholly machine-generated content, they have assumed the risks and enjoyed the benefits of publishing content deemed to be in the public domain.
A human creator using generative AI as a tool in creating new work may be considered the author if the act of creation would meet or surpass the originality tests set out by the Supreme Court of Canada in CCH Canadian Ltd. v. Law Society of Upper Canada.
Otherwise, ACP believes that works that are purely AI-generated do not attract copyright protection under existing Canadian law. Unless new case law were to contradict this, no legal clarification is necessary on this point.
Should the Government propose any clarification or modification of the copyright ownership and authorship regimes in light of AI-assisted or AI-generated works? If so, how?
Clarification or modification of copyright ownership and authorship of AI-generated works is not necessary. Should case law develop that undermines the principle of creativity as a uniquely human trait, clarification of these principles would be required, but existing legal precedents and scholarly articles suggest that this is an unlikely outcome.
Are there approaches in other jurisdictions that could inform a Canadian consideration of this issue?
The approach adopted by the United States Copyright Office, in which “a work containing AI-generated material will also contain sufficient human authorship to support a copyright claim,” when a human applies their creativity to the manipulation of AI-generated content in such a way that ‘‘the resulting work as a whole constitutes an original work of authorship,’’ is consistent with our position. Additionally, most parties to international copyright treaties reserve copyright protection to human creators. (See https://www.govinfo.gov/content/pkg/FR-2023-03-16/pdf/2023-05321.pdf#page=3 )
Infringement and Liability regarding AI
Are there concerns about existing legal tests for demonstrating that an AI-generated work infringes copyright (e.g., AI-generated works including complete reproductions or a substantial part of the works that were used in TDM, licensed or otherwise)?
ACP does not have concerns about existing legal tests at this time, but this is contingent on case law developing in a way that protects creator rights.
Our position is simple: infringement through an AI system’s output must be technologically neutral. If a work would be deemed to be infringing if it had been created by a human, it must be deemed to be infringing if it is created by a machine. This principle extends to any derivative work produced by a machine. Large language models easily generate derivative works (adaptations, sequels, translations), each of which are infringements of copyright, and require permission from the original rightsholder. In some cases, they also infringe through direct plagiarism of works used in the training process, though this depends on the nature of the model.
What are the barriers to determining whether an AI system accessed or copied a specific copyright-protected content when generating an infringing output?
Most AI systems developers do not disclose the sources they use to develop their systems. In practice this makes it impossible to determine whether copyright-protected content was accessed when generating infringing outputs. While many developers argue that citation of training sources is impossible, at least one model (Wordtune Spices by AI21 Labs) cites sources alongside its output.
The use of pirated resources such as the Books3 corpus by major generative AI developers further complicates this issue. Books that have never legally been made freely available on the internet are included in these compilations.
When commercialising AI applications, what measures are businesses taking to mitigate risks of liability for infringing AI-generated works?
Many commercial AI providers have offered to “shield” end users from copyright liability by paying their legal fees. This practice sends the wrong message to users and places an extremely high burden on rights holders: to enforce one’s rights, one must be willing to engage in legal action against the world’s largest and wealthiest technology companies.
In what may be a strategy to make it harder to be held to account for copyright infringement, most LLM developers have modified their systems so they will no longer respond with specifics when prompted to disclose their sources. This violates authors' moral right of attribution.
ACP would prefer these businesses assume the risks and liabilities of their actions by licensing to cover both training and output. Such licences would be a more appropriate risk mitigation strategy and could shield businesses and AI users from liability under certain circumstances.
Should there be greater clarity on where liability lies when AI-generated works infringe existing copyright-protected works?
Liability under current copyright law should be vested in the owner of the platform that generates infringing work.
Terms of use that pass the liability for infringement on to the author of a prompt are a legal fiction, given that only a court of law can assign liability.
There is an onus on developers to train and build AI tools that do not infringe copyright. Existing tools like Midjourney and ChatGPT already have robust protections that seek to prevent them from generating inappropriate content; surely such protections can be extended to limiting their ability to generate infringing works.
ACP believes that existing legislation that provides legal remedies against pirate websites should apply to AI applications as well.
Comments and Suggestions
Canada still has the opportunity to create a regulatory regime for AI that centres and continues to support the value of human creation and sustain our vital cultural industries. It is imperative that the livelihoods of writers and artists, and the ongoing investments of the publishers that bring their works to Canadians, are protected, if not enhanced, by a copyright policy that allows them to share in the economic value that generative AI will inevitably build on the foundation of their work. The sacrifice of this principle in favour of the convenience of AI developers would be devastating for our cultural industries, and will impoverish our culture for the benefit of a handful of corporate interests.
Books are among the highest-value types of content for the training of generative AI. They are broad and rich in linguistic expression, and contain both stories and data that have been subject to the highest levels of editorial and scholarly scrutiny. AI models will be better – less biased, more factual, more representative of Canadian culture – if they are trained on Canadian books, but this process must not be done in a way that removes incentives for future human creativity.
Canada has long enjoyed a cultural policy framework that has used a variety of tools, from copyright to subsidy, foreign investment regulation, and cultural diplomacy, to encourage the creativity of our citizens and find their work its rightful place on the world stage. This sector must not be placed at risk for the sake of convenience; “go fast and break things” may be an effective way to develop software, but it has no place in the governance of a functioning democracy.
Copyright legislation, and AI policy, must always be considered in the context of its broader cultural, social, and economic implications. Artificial intelligence will likely be the greatest disruptor in these fields since the dawn of the internet. It represents a great opportunity, and a great threat. The accelerated pace of change, and the convenience of AI developers, is no excuse to disregard these consequences. Even within the context of a relatively narrow review of copyright policy, all implications should be considered, including ethical questions; cultural sovereignty; impacts on human rights; compatibility with labor laws; economic impacts, including negative impacts and impacts on distributive justice; privacy issues; and the impacts of AI on reliability of information.
This submission has been endorsed by Books BC, the Book Publishers Association of Alberta, SaskBooks, the Association of Manitoba Book Publishers, the Ontario Book Publishers Organization, the Association of English-language Publishers of Quebec, the Atlantic Publishers Marketing Association, and the Literary Press Group of Canada.
Association québécoise de l’industrie du disque, du spectacle et de la vidéo (l’ADISQ)
Preuve de nature technique
Fondée en 1978, l’Association québécoise de l’industrie du disque, du spectacle et de la vidéo (l’ADISQ) représente près de 200 entreprises québécoises indépendantes, œuvrant dans tous les secteurs de la production d’enregistrements sonores, de spectacles et de vidéos, dont des producteurs, des maisons de disques, des gérants d’artistes, des distributeurs des disques, des maisons d’édition, des agences de spectacles, des salles et diffuseurs de spectacles, des agences de promotion et de relations de presse.
Notre organisation n’a donc pas pour rôle de recueillir et encoder le contenu protégé par le droit d’auteur dans des ensembles de données d’entraînement ni d’utiliser l’ensemble des données d’entraînement dans le développement des systèmes d’IA.
La présente consultation nous invite spécifiquement à nous positionner sur le sujet de l’intelligence artificielle (IA) générative et la question du droit d’auteur. Avant tout, il est important de rappeler que nous composons avec un important manque d’informations sur ces questions. En effet, il existe derrière une majorité des processus liés à l’IA une importante opacité. Toutefois nous pouvons affirmer qu’aujourd’hui, il y a peu ou pas de mesures prises pour atténuer les risques que le contenu généré par l’IA viole les droits d’œuvres protégées par le droit d’auteur. En 2023, chacun.e a pu constater les avancées majeures faites dans le domaine de l’IA générative, développements qui se sont donc notamment appuyés sur une utilisation d’œuvres protégées par le droit d’auteur, et comme nous le verrons, sans autorisation des ayants droit.
Au sein de l’industrie musicale, de la création à la consommation de musique en passant par la production et la diffusion, l’intelligence artificielle est présente à différents niveaux. La chercheure Joelle Farchy observe ainsi que « La musique est l’industrie culturelle où les propositions d’intelligence artificielle sont les plus avancées. Tout au long de la chaîne de valeur, trois applications majeures mobilisent de larges corpus de données qui alimentent des algorithmes : au niveau de la production, afin de connaître le marché pour prédire ou provoquer le succès ; au niveau de la consommation, dans la recommandation de certains morceaux auprès des utilisateurs ; en amont, enfin, lors du processus de création. »
Pour plusieurs acteurs du secteur musical, l’IA constitue un outil de travail au service de la créativité humaine. Elle peut, par exemple, être utilisée pour aider à l’écriture des textes, la composition, l’arrangement et la production de musique, ou encore à l’amélioration de la qualité du son. Toutefois, à notre connaissance, peu d’enquêtes ont été menées au Canada sur l’utilisation de l’IA au sein de l’industrie musicale.
Fouille de textes et de données
La FTD réfère à un ensemble de procédés techniques automatiques d’analyse s’appliquant à de grands corpus de contenus numériques, pouvant inclure des textes, des données, des sons, des images ou d’autres éléments, ou une combinaison de ceux-ci.
La première étape de la FTD consiste à collecter ces données, appelée input ou intrant, et parmi lesquelles on trouve des œuvres protégées. Ce processus implique des copies et reproductions de ces données. Ensuite, celles-ci sont soumises à un prétraitement. Celui-ci inclut leur nettoyage et parfois une transformation dans un format spécifique pour faciliter l’entraînement du modèle d’IA. À partir de ce moment, la phase d’apprentissage peut être réalisée à l’aide d’un algorithme d’apprentissage automatique. Il s’agit d’apprendre au modèle développé à comprendre les structures et les relations dans les données collectées lors de la première étape. Le modèle est ensuite capable de générer de nouvelles données, appelées output ou extrant, qui partagent des caractéristiques similaires à celles utilisées pour l’entraînement.
Les vastes corpus de données moissonnées en ligne constituent en quelque sorte la matière première des outils et logiciels d’IA. La valeur économique des IA génératives repose en grande partie sur la qualité des données qui ont été utilisées. Or, les œuvres protégées qui constituent des œuvres professionnelles de qualité sont particulièrement intéressantes.
Nous avons donc une utilisation de contenus protégés sans autorisation, génératrice de valeur pour les outils et les logiciels d’IA qui soulève de nombreuses questions :
- Quelles œuvres sont utilisées ?
- Quelle est l’utilisation faite de ces œuvres ? Quelle est sa finalité ?
- L’ayant droit a-t-il donné son autorisation ?
- Quelle est la valeur générée ?
Ces questions illustrent l’absence de transparence autour des processus liés à la FTD. Par exemple, lorsqu’une chanson des BB chantée par Michael Jackson est publiée, on comprend qu’une utilisation non autorisée, du corpus de ce dernier a été faite pour entraîner une IA et on apprend cela seulement au moment de la publication de l’œuvre. Ce manque de transparence affecte le présent processus de consultation. Il nous est en effet difficile de répondre à plusieurs questions et à formuler des recommandations éclairées s’appuyant sur des données probantes.
Du fait de la présence d’un nombre important d’entreprises spécialisées dans ce domaine d’activités sur le territoire, il est clair que des activités de FTD sont menées au Canada. Toutefois, il est difficile de donner plus de précisions sur cette question.
La transparence est un incontournable, que ce soit pour le législateur qui doit s’assurer que l’IA respecte minimalement l’ensemble des règles que nous nous sommes fixés comme société, pour les ayants droit en lien avec le respect de leurs droits, qu’ils soient patrimoniaux ou moraux, mais également pour le citoyen qui a le droit de savoir d’où viennent les produits qu’il consomme. Pour s’assurer que l’IA et ses développements soient responsables, éthiques et tout simplement en conformité avec le droit, la transparence est un préalable.
Nous sommes favorables à la tenue de registres et à l’obligation de divulguer les contenus protégés par le droit d’auteur, enregistrements sonores et performances, qui ont été utilisés pour la formation des systèmes d’IA. Ces registres doivent être facilement accessibles et consultables.
Ce besoin de transparence fait consensus au sein du milieu culturel. Par exemple, la Human Artistry Campaign qui regroupe plus de 150 organisations musicales à travers le monde souligne que la confiance et la transparence sont essentielles au succès de l’IA et à la protection des créateurs. En juin dernier, un regroupement important de créateurs et titulaires de droits européens a appelé à la mise en place d’obligations de transparence pour garantir l’utilisation licite des contenus protégés par le droit d’auteur.
On retrouve également cette demande au sein du grand public. Le 27 novembre 2023, l’IFPI a publié les premiers résultats d’une étude réalisée à l’échelle internationale auprès des amateurs de musique sur leurs points de vue concernant l’IA. La grande majorité des répondants (73 %) se disent d’accord avec le fait qu’un système d’IA devrait clairement indiquer toute la musique qu’il a utilisée pour s’entraîner.
Certaines législations se sont positionnées sur cette question de la transparence. L’Union européenne a ainsi ajouté dans la directive sur l’IA sur laquelle elle travaillait une obligation pour les entreprises d’IA à « rendre publique un résumé suffisamment détaillé » des contenus qu’elles utilisent pour l’entraînement de leurs algorithmes. Le 8 décembre dernier, les États membres et le Parlement européen sont parvenus à un « accord politique » en vue de l’adoption de cette législation européenne sur la propriété intellectuelle.
Aux États-Unis, le président Joe Biden a signé un décret posant un ensemble de règles et de lignes directrices en matière d’IA. L’ordonnance exigera plus de transparence de la part des entreprises d’IA sur le fonctionnement de leurs modèles. Parallèlement, deux membres de la Chambre des représentants, Anna Eshoo et Don Beyer, ont déposé un projet de loi intitulé l’AI Foundation Model Transparency Act exigeant que les entreprises d’IA divulguent les sources de données utilisées pour former leurs modèles. Le projet de loi ordonnerait à la Federal Trade Commission de collaborer avec le National Institute of Standards and Technology afin d’établir des règles de rapport afin d’assurer la transparence des données de formation.
Les entreprises d’IA ont la capacité de mettre en place cette transparence. La fonction même de la FDT est de réaliser une analyse fine des données qui ont été récoltées. Dès lors, les logiciels en place devraient être capables d’identifier les œuvres protégées. En outre, il existe déjà des outils permettant cette transparence : les model cards qui documentent l’architecture et le fonctionnement des IA. Certaines sociétés comme OpenAI et Meta ont déjà commencé à en publier. Ceux-ci documentent par exemple les objectifs de l’IA et le contexte dans lequel les modèles sont destinés à être utilisés ou encore les données qui sont utilisées pour entraîner l’IA, ainsi que l’origine de ces dernières.
Comme nous l’avons expliqué dans notre schématisation de la FTD, ce processus implique un acte de reproduction qui concerne notamment des œuvres protégées. Or, dès qu’une partie importante d’une œuvre est reproduite, communiquée ou publiée , les conditions et les limites de cette utilisation doivent être constatées dans une licence.
Pourtant, cette reproduction est présentement réalisée sans l’autorisation des ayants droit et encore moins de rémunération, alors que les plateformes d’IA générative tirent d’importants bénéfices des œuvres utilisées. Les titulaires de droits font donc face à des défis en ce qui concerne l’octroi de licences pour leurs œuvres utilisées dans le cadre des activités de FTD. Pour l’ADISQ, les titulaires de droits d’auteur doivent disposer de leur droit exclusif comme ils l’entendent.
Selon l’étude de l’IFPI, 76 % des répondants, la musique ou la voix d’un artiste ne devraient pas être utilisées ou ingérées par l’IA sans autorisation.
Dans ce cadre, nous nous opposons à l’introduction de toute nouvelle exception pour l’utilisation de contenu protégé. Ces dernières années, le droit d’auteur, et donc sa capacité à assurer un contrôle et une rémunération juste à l’ensemble des ayants droit, a considérablement été fragilisé, notamment par l’introduction d’une myriade d’exceptions sous le gouvernement Harper en 2012. L’introduction de nouvelles exceptions ou l’élargissement de la portée de celles existantes constituerait une nouvelle atteinte au droit d’auteur et viderait un peu plus celui-ci de son sens.
La Loi sur le droit d’auteur actuelle est suffisamment claire et neutre technologiquement pour fournir un cadre dans lequel la FTD peut se développer tout en permettant au milieu culturel d’assurer que les droits d’auteurs soient respectés.
Le document de consultation suggère qu’en raison de la grande quantité de données impliquée dans la FTD, « l’obtention de toute autorisation nécessaire auprès des titulaires de droits pour reproduire des œuvres ou d’autres objets dans le cadre de ces activités pourrait représenter un fardeau important. » Selon nous, il apparait hautement problématique de vider le droit d’auteur de son sens et de permettre une utilisation massive sans autorisation ni rémunération des productions culturelles (qui constituent la matière première de la FTD), sous prétexte que le respect de ce droit d’auteur constituerait un fardeau important. Notre secteur n’a pas à supporter gratuitement les développements de l’IA.
En outre, comme le rappelle la CDEC, des modèles de licence d’utilisation à des fins de FTD existent. Des modèles de licences peuvent donc être facilement mis en place, celles-ci pouvant notamment être négociées par des titulaires de droits d’auteur, des regroupements de ceux-ci ou encore des sociétés de gestion collective.
Le gouvernement, qui souhaite être proactif sur ce sujet, pourrait aider le marché à trouver des solutions de licence pour les utilisations de FTD et contribuer à la mise en place de mécanismes efficaces garantissant le respect des droits d’auteur. Par exemple :
- faciliter les négociations entre ayants droit et utilisateurs,
- encourager des initiatives favorisant la mise en place de telles licences,
- appuyer des solutions permettant aux développeurs d’IA de connaitre dans quel corpus ils peuvent puiser et sous quelles conditions,
- soutenir le développement d’outils favorisant la traçabilité des œuvres (stéganographie ou filigranage) ainsi que le développement de techniques d’« empoisonnent » des œuvres pour se prémunir contre les violations de droit d’auteur aux fins de FTD.
Titularité et propriété des œuvres produites par l’IA
Le droit d’auteur ne protège que la valeur unique de la créativité intellectuelle humaine dans le but d’encourager celle-ci. Nous considérons que ce principe au fondement même du droit d’auteur doit demeurer. Ainsi, seule l’œuvre créée par un humain devrait être protégée. L’intelligence artificielle ne peut être autre chose qu’un outil au service de la créativité humaine. Le gouvernement ne devrait donc pas modifier la Loi sur le droit d’auteur pour traiter de la paternité ou de la propriété du contenu généré par l’IA.
Au Canada, pour être protégée par le droit d’auteur, une œuvre doit faire expressément partie des œuvres protégées par la Loi sur le droit d’auteur (LDA), être originale et fixée sur un support. Le critère d’originalité peut être rattaché à des caractéristiques humaines. Pour être « originale », une œuvre doit être personnelle à l’auteur sans forcément que les qualités « créatives » de ce dernier n’entrent en jeu. L’auteur doit simplement avoir exercé un certain « talent » et « jugement » en vue de la création de l’œuvre, sans qu’il ne s’agisse d’un exercice purement « mécanique ». Selon nous, ces principes suffisent, pour exclure les œuvres qui seraient générées par l’IA et qui impliqueraient peu ou pas d’intervention humaine.
Cette question de la protection des œuvres générées par l’IA s’est posée dans plusieurs pays. À notre connaissance, la direction prise par la plupart des pays à l’instar des États-Unis, de l’Union européenne ou l’Australie rejoint la position défendue ici. Par exemple, le U.S. Copyright Office soutient que seules les œuvres fondées sur les pouvoirs créatifs de l’esprit humain peuvent être protégées par le droit d’auteur. En d’autres mots, l’œuvre résulte de choix libres et créatifs d’un individu. Le U.S. Copyright Office a ainsi refusé d’accorder une protection pour la peinture A Recent Entrance to Paradise, créée par une intelligence artificielle, et a révoqué un droit d’auteur à Kristina Kashtanova pour le roman graphique Zarya of the Dawn, qui a été partiellement créé à l’aide de l’IA générative.
Cette importance de l’apport humain dans la création est partagée par les répondants de l’étude de l’IFPI mentionnée précédemment. Ainsi, 79 % des personnes interrogées estiment que la créativité humaine reste essentielle à la création musicale.
Nous considérons également que les œuvres qui ont été générées par l’IA devraient être facilement identifiables. En effet, le public doit être en mesure de savoir si ce qu’ils écoutent est une création humaine ou une pièce musicale générée par une machine. C’est d’ailleurs la voie choisie par l’Union européenne dans le cadre de la Législation européenne sur la propriété intellectuelle citée préalablement. Les développeurs devront ainsi afficher clairement sur leurs créations si elles ont été créées avec l’aide de l’intelligence artificielle ou non. Aux États-Unis, le décret voté par le président Joe Biden exige que le ministère du Commerce élabore des lignes directrices pour l’étiquetage (ou tatouage numérique) du contenu généré par l’IA. Tout contenu textuel, audio et visuel généré par l’IA devra clairement être identifié comme tel.
Enfin, la multiplication des œuvres générées par l’IA soulève une question fondamentale quant au modèle culturel que l’on souhaite défendre. En effet, ce développement de l’IA générative risque d’entraîner une massification de la production d’œuvres. Aujourd’hui, ce sont déjà 120 000 pièces musicales qui sont quotidiennement déposées sur les plateformes d’écoute en ligne. Ce chiffre risque donc de considérablement croitre avec des pièces musicales basées sur des œuvres existantes (via la FDT), et probablement, pour des fins économiques, basées sur de grands succès internationaux parmi lesquels on retrouve peu ou pas de productions francophones. Cela risque de générer une dilution de l’identité artistique et nuire à la préservation de notre diversité culturelle.
Violation et responsabilité en matière d’IA
La reproduction complète ou une partie substantielle d’une œuvre sans autorisation, comme son utilisation à des fins autres que celles décidées, contrevient au droit d’auteur et donc les sociétés qui opèrent cette reproduction ou utilisation portent une responsabilité.
C’est la position du New York Times qui a récemment déposé une plainte au tribunal de New York à l’encontre d’OpenAI, créateur du logiciel ChatGPT, et Microsoft, son principal investisseur, pour violation des droits d’auteur. Selon le journal, Microsoft et OpenAI ont utilisé le travail du média pour développer et commercialiser leurs produits d’intelligence artificielle générative sans avoir la permission. Ainsi, ce type de société d’IA « profite gratuitement de l’investissement massif du Times dans le journalisme pour créer des produits de substitution sans autorisation, ni paiement » . Pour le quotidien new-yorkais qui estime le préjudice à plusieurs milliards de dollars, Microsoft et OpenAi « ont donné aux contenus du Times une importance particulière dans la construction de leur modèle d’apprentissage, soulignant une préférence qui reconnaît la valeur de ce travail. »
Ce cas n’est pas isolé, pensons par exemple à la plainte de Getty Images contre Stability AI. La multiplication de ce type d’affaires illustre la manière dont ces firmes d’IA se sont appropriées d’importants corpus d’œuvres protégées, en faisant fi des règles liées au droit d’auteur. Aujourd’hui, celles-ci doivent rendre des comptes.
Il est également important de se pencher sur les sites sur lesquels sont moissonnées les données. Pour constituer leurs vastes corpus de données, les entreprises opérant de la FDT mettent en place des techniques d’extraction (web scraping) afin de se nourrir auprès de sites internet où sont regroupés d’importantes quantités de données, par exemple des services de diffusion musicale en continu et de partage de vidéos en ce qui concerne la musique. Dès lors, ces plateformes sur lesquels sont diffusés des contenus culturels portent une responsabilité puisque c’est elles qui fournissent cette matière première aux entreprises d’IA sans que l’ayant droit n’ait été consulté. Les contenus disponibles sur ces plateformes sont utilisés à des fins qui n’étaient pas initialement prévues. Il est de la responsabilité de ces plateformes d’empêcher ce type d’utilisation qui déroge aux usages pour lesquels l’ayant droit y a déposé son contenu (notamment définis par les conditions générales d’utilisation).
Enfin, les plateformes de diffusion musicale ont aussi une responsabilité légale et éthique importante concernant les contenus qui circulent par leur intermédiaire. Elles doivent s’assurer que ces contenus soient conformes au droit d’auteur. Cette question a notamment été mise en lumière par le succès sur des plateformes telles que Spotify, YouTube ou encore TikTok de la chanson Heart on My Sleeve reproduisant les voix de Drake et The Weeknd, sans leur autorisation (comme l’acte de reproduction qui a été opéré pour entraîner l’IA qui a généré ces musiques). Universal qui travaille avec ces artistes avait alors déclaré :
« The training of generative AI using our artists’ music (which represents both a breach of our agreements and a violation of copyright law) as well as the availability of infringing content created with generative AI on DSPs, begs the question as to which side of history all stakeholders in the music ecosystem want to be on: the side of artists, fans and human creative expression, or on the side of deep fakes, fraud and denying artists their due compensation. » « These instances demonstrate why platforms have a fundamental legal and ethical responsibility to prevent the use of their services in ways that harm artists. »
Spotify comme YouTube ont finalement retiré cette chanson. Dans un même ordre d’idée, l’an dernier, Spotify a décidé de retirer de son service de diffusion des dizaines de milliers de chansons créées par l’entreprise Boomy, spécialisée dans la génération automatisée de musique via l’IA. Ce type de décisions de ces partenaires importants de notre secteur est fondamental pour assurer le respect des droits de notre industrie, l’intégrité de nos œuvres et la préservation de notre modèle culturel.
Toutefois, lorsque ces intermédiaires en ligne ne font pas preuve de cette proactivité, nous considérons qu’ils doivent être responsabilisés. Lors de notre intervention dans le cadre de la consultation sur un cadre moderne du droit d’auteur pour les intermédiaires en ligne, nous avions recommandé la mise en place d’une mesure similaire à l’article 17 (anciennement article 13) de la directive européenne Droit d’auteur et droits voisins dans le marché unique numérique en matière de responsabilisation des intermédiaires en ligne. Nous considérons qu’une mesure de ce type pourrait s’appliquer ici aussi.
Commentaires et suggestions
L’ADISQ est membre de la Coalition pour la diversité des expressions culturelles et appuie entièrement le contenu et les recommandations du mémoire de celle-ci.
Pour conclure, il est important de rappeler ce qu’est la Loi sur le droit d’auteur, à savoir une loi de nature économique qui crée un cadre permettant le contrôle et la rémunération des titulaires de droit pour les différentes utilisations qui sont faites de leurs œuvres. Cette loi, qui organise la rétribution des auteurs, compositeurs, interprètes et producteurs pour leur travail, est vitale pour l’industrie musicale. En effet, sans un contrôle permettant une rémunération suffisante pour ces derniers, il n’y a pas de musique.
Nous souhaitons réitérer que le droit d’auteur ne représente pas un frein au développement technologique et à l’innovation. Au contraire, il constitue un incitatif à la création au fondement d’industries culturelles et créatives qui, outre leur rôle social et culturel fondamental, ont des retombées importantes pour notre économie. Nous sommes conscients des apports sociétaux et économiques que peut amener l’IA. Toutefois, ces développements doivent se faire de manière responsable et éthique en accord avec les principes dont nous nous sommes dotés comme société. Les développements de l’IA doivent coexister avec un droit d’auteur qui contribue à l’épanouissement de notre culture afin de créer un cadre qui soit profitable pour l’ensemble des parties en présence.
Dans ce contexte de changement technologique rapide où l’IA va prendre de plus en plus de place dans notre écosystème musical, voire le chambouler, un ingrédient essentiel demeure intouchable : une Loi sur le droit d’auteur qui protège adéquatement les ayants droit.
Or depuis 2012, moment où la LDA a passablement été mise à mal, des mises à niveau demeurent encore et toujours urgentes pour le milieu musical canadien.
Les trois principales demandes de l’ADISQ en regard de la révision de la Loi sur le droit d’auteur qui visent à assurer une juste rémunération aux ayants droit pour leur travail sont :
- Retrait de l’exemption de 1,25 million de dollars : cette exemption, qui est en réalité une subvention accordée à la radio commerciale aux dépens des détenteurs de droits, doit être abolie, car elle crée une inégalité entre les différents utilisateurs de musique et porte préjudice aux créateurs. Actuellement, les stations de radio commerciales bénéficient d’un traitement de faveur en ne payant que 100 $ pour la première tranche de 1,25 million de dollars de leurs recettes publicitaires annuelles aux artistes-interprètes et aux producteurs.
- Révision de la définition d’enregistrement sonore : La définition actuelle d’enregistrement sonore dans la Loi sur le droit d’auteur exclut les artistes-interprètes et les producteurs de disques des redevances de la télévision et du cinéma, ce qui est injuste. Lorsqu’un enregistrement sonore est utilisé dans un film ou à la télévision, il est légitime que les ayants droit soient rémunérés pour cette utilisation. Il ne s’agit pas ici de synchronisation (reproduction) qui s’applique évidemment, mais de droit à rémunération équitable pour le fait de diffuser l’enregistrement sonore et la prestation qui y est incorporée.
- Révision du régime de copie privée : Rendre le régime technologiquement neutre pour qu’il s’applique non seulement aux supports et aux appareils audios vierges, mais également aux téléphones intelligents et aux tablettes, appareils sur lesquels les Canadiens et les Canadiennes font désormais leurs copies de musique pour usage privée.
Il est crucial que la Loi sur le droit d’auteur soit modernisée non seulement pour corriger les erreurs du passé, mais aussi pour garantir qu’elle soit équitable et en accord avec les pratiques internationales, et ce, peu importe le véhicule que vous choisirez de prendre. Les entreprises qui offrent un accès aux contenus musicaux, ainsi que les fabricants d’appareils permettant la copie de musique, ne sont que quelques exemples d’entreprises qui ont les moyens de mieux rémunérer les titulaires de droits pour la valeur qu’ils tirent du contenu protégé par le droit d’auteur. Toutes les solutions que nous proposons sont basées sur des revenus générés par le marché lui-même, et non par les fonds publics.
En 2019, nous avons eu l’occasion de présenter nos demandes en vue d’assurer une juste rémunération des ayants droit dans le cadre d’un mémoire déposé par la Coalition pour une politique musicale canadienne. Nous souhaitons réitérer ici l’importance de ces demandes. Nous considérons que celles-ci devraient constituer la priorité du gouvernement canadien en matière de révision du droit d’auteur.
Association québécoise de la production médiatique (AQPM)
Preuve de nature technique
L'Association québécoise de la production médiatique (AQPM) représente, conseille et accompagne plus de 160 entreprises québécoises de production indépendante en cinéma, télévision et web. À titre d’entrepreneurs, nos membres sont présents à toutes les étapes de la création d’une œuvre, de son développement à son rayonnement sur le territoire national, à l’international, et sur tous les écrans. Ils permettent ainsi à des milliers de créateurs, d’acteurs et de techniciens d’exercer leurs talents et de partager sur toutes les plateformes, en français et en anglais, des histoires qui reflètent notre identité culturelle. Elle négocie également les ententes collectives applicables avec les syndicats professionnels, de techniciens, de créateurs et d'artistes-interprètes en vertu de la Loi québécoise sur le statut de l'artiste.
Pour le moment, l'AQPM effectue une veille stratégique sur ces questions, elle est particulièrement soucieuse de l'utilisation de l'IA pour la production de scénarios ou de textes puisque les producteurs doivent garantir l'originalité des contenus. De plus, l'l'utilisation de la voix ou de l'image des interprètes est une question pertinente pour les producteurs. L'AQPM s'intéresse également à l'IA comme un procédé pour alléger ou favoriser des processus administratifs ou créatifs.
Fouille de textes et de données
L'AQPM reconnaît les dangers amenés par l'IA de même que son potentiel notamment pour soutenir le potentiel créatif.
Mais comme nous l'avons souligné préalablement, cela doit s'inscrire dans la transparence.
Il est important d'imposer une obligation de divulgation et de tenue de registres afin de connaître les activités de FTD qui utilisent des œuvres protégées par le droit d'auteur ou des performances que ce soit à des fins d'entraînement des systèmes que de création de contenus générés par l'IA. Pour le moment, il est difficile de connaître de cerner l'ampleur de ces utilisations.
Le mécanisme de gestion collective des œuvres serait approprié pour gérer l'utilisation des œuvres protégées et leur reproduction pour la formation des systèmes d'IA de même que pour la rémunération des ayants droit. Certaines sociétés de gestion le font déjà comme le Copyright Clearance Center par exemple.
Il nous apparaît tout à fait inacceptable d'introduire dans la loi une exception en matière de FTD même pour des fins de recherche. Souvent ces recherches mènent à la création de start up avec des objectifs purement commerciaux. De plus, on a vu l'impact avec les géants du web qui possèdent des moyens financiers colossaux de reproduction des quantités phénoménales d'œuvres et de bâtir des monopoles sans compenser adéquatement les ayants droit. Le Canada doit éviter de s'engager dans cette voie sans compter que la capture de milliers de performances, d'extraits vidéos en reproduisant la voix et l'image des interprètes, pose des enjeux de protection de renseignements personnels et de vie privée qui dans ce dernier cas, irait à l'encontre du Code civil du Québec. Sans compter l'incidence sur la capacité de ces artistes à capitaliser sur leur talent pour gagner leur vie. On mesure encore mal tous les développements possibles de cette technologie et il y a là une occasion pour les titulaires de droits d'explorer de nouveaux marchés et des occasions d'y générer des revenus importants.
La Loi sur le droit d'auteur comprend aussi une protection au niveau du droit moral garantissant le droit à la paternité de l'œuvre, mais également à son intégrité et à ne pas être associé à un produit d'une manière pouvant compromettre sa dignité et sa réputation. Accorder une exception pour une reproduction massive des œuvres rendra tout simplement impossible le contrôle sur leur utilisation.
Titularité et propriété des œuvres produites par l’IA
Le texte de la loi définit qu'une œuvre doit être originale pour être protégée i.e. qu'elle doit découler de l'exercice des habiletés et du jugement de son auteur (skill and judgment) à un degré tel qu'il ne doit pas s'apparenter à un exercice purement mécanique. L'AQPM croit que cette définition et les balises posées par les Tribunaux permettent de disposer des incertitudes liées aux produits générés par l'IA. L'apport original d'un humain doit demeurer au centre de la définition pour établir si l'extrant se qualifie comme une œuvre protégée en vertu de la LDA.
Violation et responsabilité en matière d’IA
La transparence est le principal obstacle puisque l'ayant droit doit prouver que l'utilisateur a reproduit son œuvre ou une partie importante de celle-ci, il doit donc être en mesure de connaître l'appropriation de son œuvre. On en revient donc à l'obligation de tenir des registres des œuvres utilisées pour entraîner le système et pour produire l'extrant.
Ainsi, dans le cas où aucune autorisation n'aurait été demandée au préalable auprès du titulaire de droit ou de son représentant, comme cela devrait être le cas, le registre permettrait d'établir ce lien entre l'utilisateur et l'œuvre.
Le gouvernement du Canada devrait promouvoir une utilisation responsable des œuvres protégées et adéquatement compensées et non l'inverse. Après-tout, n'est-ce pas ce qu'il a tenté de faire par le biais du projet de loi C-18 ?
Commentaires et suggestions
pas pour le moment
Merci d'avoir entrepris cette consultation
Sofian Audry
Preuve de nature technique
Je peux parler à l'échelle de ma propre recherche au sein de mon institution universitaire d'attache. Dans le cadre de mes recherches, nous n'utilisons pas de contenu protégé par les droits d'auteur pour l'entraînement de nos systèmes. Nous récoltons généralement des données brutes issues de différents types de senseurs pour des applications artistiques en temps réel. Ces données sont conservées sur des serveurs protégés et sont anonymes.
Fouille de textes et de données
Un principe général devrait s'appliquer pour les FTD d'une certaine envergure à visée commerciale afin que les créateurs de contenu soient protégés, tout en permettant la FTD avec moins de régulation pour la recherche, la création artistique, l'open source et les petites entreprises.
Titularité et propriété des œuvres produites par l’IA
Un principe général serait de faire payer une taxe aux grandes entreprises qui utilisent l'IA générative dont le montant serait redistribué aux auteurs et autrices, à l'image de plusieurs modèles existants de redistribution sur les droits. De plus, les oeuvres produites par l'IA ne devraient pas être protégées par le droit d'auteur. Finalement, il faut que ces oeuvres produites par IA soient traçables, c'est-à-dire qu'il faut pouvoir facilement identifier qu'une oeuvre a été produite par un procédé algorithmique.
Violation et responsabilité en matière d’IA
Le problème majeur avec l'IA générative basée sur l'apprentissage profond est que dans bien des cas, il est difficile de retracer précisément à partir de quels contenus spécifiques l'oeuvre générative a été créée. Mais ce n'est pas impossible d'obtenir une mesure relativement précise, laquelle pourrait être utilisée afin de verser des redevances.
Commentaires et suggestions
J'aimerais mettre en garde le gouvernement contre une idée que j'ai entendue trop souvent, comme quoi on devrait réguler les artistes qui utilisent les IA génératives. Les artistes sont déjà les principales victimes des IA génératives développées par les grandes entreprises en technologie (on assiste en ce moment au plus grand vol de propriété intellectuelle de tous les temps) mais il ne faut pas blâmer les artistes qui utilisent les IA génératives à des fins de création, lesquels poussent le medium si loin qu'ils arrivent à créer des oeuvres originales, un peu comme on l'a vu dans le passé dans le monde de la musique avec l'utilisation du "sampling" (échantillonage). Il faut réguler les grandes entreprises qui profitent d'un monopole sur les données afin d'extraire du pouvoir et de la richesse au détriment des créateurs, tout en permettant aux créateurs de faire leur travail, ce qui inclut l'utilisation de ces outils.
Aula Fellowship
Technical Evidence
Comments on Datasets:
In our own work as a small business:
We’ve noticed that most marketing images are coming at us with AI modifications.
We have brought about 15% of our graphic work back in-house with AI support
We have saved this year on legal contracts and marketing reports by using GPT.
We have not bought new stock photos this year.
As practitioners in AI:
In terms of training and datasets being used in responsible ways, there are two datasets that are of concern to us, as we understand they have been used in models that we use, including by OpenAI.
The book3 dataset: a dataset of full-length book texts, including copyrighted works, scraped from the internet. Notably includes the works of Margaret Atwood and Stephen King. https://www.cbc.ca/news/canada/canadian-authors-books3-ai-dataset-1.7050243
The LAION-5B dataset: a dataset including links to millions of CSAMs online. https://www.cbc.ca/news/canada/canadian-authors-books3-ai-dataset-1.7050243
It has been useful to us in brainstorming, to consider the comparative reactions to the use of these two datasets: one can be said to be a set of copy-right material, while the other is copy-prohibited material. In that sense, when we consider the use of copy-prohibited material in large language or image generator AI models, it seems clear that copy-prohibitions should also extend to a prohibition to use such material in the model. In which case, the legal status of the data can and does extend to its use in training a model, based on the unacceptability of the model producing new material that contains images with elements of the prohibited material in such a way as to make that prohibited material recognizably inspired by actual victims. In short, if we disallow models to carry prohibited material through the process of dataset-training-output, then why would we allow models to carry through copy-righted material that they haven’t obtained legally?
On the technical side, it’s not commonly understood in government and private sector policy conversations that AI can’t be made to forget. If we want something out, our only technical option is to remake the model entirely, and leave out the info. Tech companies have been well aware of this, which indicates that our negotiating options are limited by their defacto release of problematic material. It makes it a question of whether we will make sure artists and writers get compensated, not whether or not they can opt-in.
Another concern, still with these two datasets but for any other troubling material, is the openness of models.
With the CSAM set, for example:
If a model with the set is already out in the wild and open (which they are), then even if we were to remake the model entirely without the set, it would be possible to compare the old and new models and identify the portions of the model that are referring to the set, and in that sense if would make it easier for ill-doers to locate the links to CSAM in the old, unmodified model. In other words: removing it from the new model makes it easier to find the offending material in the old one.
We can picture this as a box of parts. We don’t know what the individual parts do, but we send out these boxes of parts. Then we make a new box of parts, taking out the bad ones. We send that new box out. People who have both boxes still don’t know what individual parts do, but they can now identify the parts in the old box that aren’t in the new one. They can therefore identify the bad parts.
That has moral and legal implications.
It furthermore seems to bestow responsibility on governments to find and enforce the destruction of CSAM-infected models, and perhaps the book3-infected models, too. It seems that our industrial and commercial laws should ensure that people aren’t breaking our criminal laws with governmental oversight.
Another concern in datasets and in training is that a lot of the data is labeled, moderated, and monitored overseas in documented oppressive circumstances. There are lawsuits coming out of Africa by groups of employees who are claiming a wide scope of harm. We don’t want to be doing business with people who support the enslavement and/or other harm to our fellow humans.
Text and Data Mining
Comments on infringement:
It is possible to build these models without infringing on copyright. The materials are available online and can be purchased. We have a robust network of unions representing authors who can arrange for payment. We were able to organize this for streaming music. Before we were paying for it though: streamers were pirates. Monetizing this, by ensuring fair compensation to artists for their work, will support artistic creation in the way that copyright has always done.
Norway has been doing something nicer for authors and AI. They have a national library of public domain and copyrighted works. They have public support to use that in building a national Norwegian-language model of their own. They’re going to be paying the authors of copyrighted material. Authors have agreed. They also have Schibsted on board for the project ( a very large Scandinavian media company). It’s organized by the public library. You could check out the work of Per E Kummervold of the National Library of Norway if you want to know more.
Authorship and Ownership of Works Generated by AI
Comments on authorship:
Yes, the uncertainty and the moral pressure are making it harder to use AI generated work. It is clear who uses it and who does not, in news outlets and on social media. It has become something of a status symbol to be able to afford original art, because the AI generated art is so very easy to get and modify.
You may not be aware that Adobe put out a major update in December to Photoshop. Photoshop is by far the most used photo editing software in the world, and it is decades old. All users received the update and a tutorial on how to instantly modify any element of their images. This was previously available only to AI adepts and is much more powerful than what Midjourney and Dall-E can do, in terms of modifying images. This concerns us greatly because we are now fully in a media world where we can’t trust what we see.
Here is a thought experiment: does the Eiffel Tower exist?
I have seen it. If I tell you it is real, and that I have seen it, you can either trust me, or not.
If you do not trust me, the only recourse you have is to go to Paris and check for yourself, or else to find another witness you trust.
Pictures won’t do the trick, anymore.
We therefore think we’re going to need to license journalists or other media persons for trust, like we do Lawyers and Doctors. Will that be pushed forward as a federal program? That would be nice, for trust purposes.
Infringement and Liability regarding AI
Comments on infringement:
I think we need a great deal more clarity. If we use AI work, are we infringing? That’s a moral question, a marketing question, and a legal question. Will it be defined as infringement in the near future?
What’s fair use? It seems that we can get GPT to reproduce full texts of pay-walled New York Times articles by first prompting it with the first few paragraphs of an article. It then puts out the whole of the rest of the article. That doesn’t seem fair. It also seems like big trouble for a few reasons:
1- For the NYT and other outlets
2- As a user of that text, if I put it into my marketing or my product, there will be no way to prove I didn’t directly plagiarize that original material from the NYT. We don’t see how we can currently use any AI content at all in public-facing marketing or copy.
3- I could apparently also infringe inadvertently, with ChatGPT reproducing whole bits from paywalled things without me knowing it. The output being indistinguishable means I can be held libel by the NYT even if I had no knowledge.
4- That is certainly the same or worse for more troubling data, like CSAM.
Lastly, the OpenAI Terms of Service prohibit people from trying to get GPT to give out copyrighted information. That is not in any way a guardrail or a mechanical/technical protection, but rather a statement that there is potential for that misuse, and user beware. However, how can the user be aware if the output is substantially reproducing copyrighted work? They can’t: but the terms of service would seem to imply that they would be held responsible anyways. The provider seems to be passing the buck here. Can the government hold them to account?
Comments and Suggestions
The Aula Fellowship: https://polyaula.com/en/aulafellowship/
We are a Fellowship of scientists and policymakers in the AI space. Our fellowship’s intent is to see to the responsible propagation of AI. Which is to say: the use of AI tools to the benefit of humanity, without adding to harms. We produce research and participate in policy in Canada and abroad. Our Fellowship is formed under the aegis of a tech company, Polyaula, of the Montreal area, which has a small factory producing recycled plastic products, an open-source industrial machinery division, and a consultancy service.
My name is Tammy Mackenzie. I am commenting here as an Aula Fellow, which is to say I am wholly empowered to express my own opinion and experiences. I speak for myself and for the mission, not for the other Fellows.
My experiences:
Professionally, I am the executive director, interim of the Aula Fellowship, CEO of Polyaula (Tech/robotics/industrial consultation), mba, sustainability, small business operations accountant (I started at 14 years old, 33 years ago), controller, and CFO, business and social strategist, ecological and human rights activist. I am also a writer and an artist.
I am a postgraduate researcher (MBA- ULaval- Sustainability, Tech, and Small Business Management), studying towards a PhD in Systems and Society.
I attend conferences and participate in research and policy discussions in Canada, the United States, and in Europe, usually those with a particular focus on law and rights. As a strategist, I listen in particular for signs that people are missing some key understanding about the technologies or the social systems in place. Things that might limit or distort policy options. I also engage with people on problems of contradictory needs, beyond misunderstanding. I am non-partisan, and promote evidence-based discussion. My comments on this consultation stem from my practice and the work of the teams I supervise at Polyaula and within the Aula Fellowship.
I am an alumna of the MILA Summer School on Responsible AI.
Last comments:
For regulation to work, we will also need new methods of enforcement. The government - either through industrial licensing or otherwise - needs to be able to say “no” to a given model or application. Not just set rules, but actually be able to shut them down.
From the perspective of strategic risk management: mitigation is the most important strategy for potentially grave risks. As such, any regulation will require not just enforcement, but also monitoring.
We must as a society be able to hold international companies responsible and to account for not just copy-righted work in their models but certainly for copy-prohibited material. The policies will have to work for both circumstances. Companies will have to account for where they get their source-content, and also how the people who provide it are treated. Failing to do so, ignoring the questionable chain of acquisition of a lot of the data in these systems, is to create and condone injustice. That’s ethically very wrong. It’s also not practical. To create injustice is to create social unrest. We have enough problems as it is without creating more and building them into our tech.
We don’t have enough people at the table. I know that you are aware of this problem. However, it’s blatantly on display in our conferences on AI. It’s not enough to know it’s a problem. People need ressources to get there.
The Aula Fellowship and her Fellows are available to consult on these questions, either with links to information in support of the statements in this consultation paper, or to research specific questions either in technical or social-strategic spheres. https://polyaula.com/en/aulafellowship/
Thank you for this opportunity to contribute. I hope that some of these insights from our work on AI science and in policy conferences may be of use to your work on these important regulations.
In conclusion to these comments, we invite you to personally imagine AI as a public service. How would you build it, if you could choose?
B
Joel Blit
Technical Evidence
N/A
Text and Data Mining
N/A
Authorship and Ownership of Works Generated by AI
N/A
Infringement and Liability regarding AI
N/A
Comments and Suggestions
It is clear that in the age of AI we will have to rethink copyrights. The stakes are too high to leave courts to interpret questions around AI and copyright based on existing laws without more clear directives from policymakers. The question, then, is how (if at all) copyrights should be modified for the age of AI.
As a Professor, I come at these questions from the point of view of what is best for society as a whole (and not what is best for one group or another). My expertise is in innovation policy, artificial intelligence, and intellectual property. I have advised policymakers at all levels on these topics.
My personal view is that copyrights need to be weakened for the age of AI and this for four main reasons:
1. Rewards should be commensurate with investments
2. Maintaining freedom to create will get harder
3. A strong copyrights regime could make AI developments grind to a halt
4. Technological neutrality in building on previous ideas
In the interest of time I will only briefly explain each of these. I would be happy to discuss these in more detail.
1. Rewards should be commensurate with investments
Patents and copyrights are temporary exclusive rights that reward inventors/creators for investing their time and money. However, society would be best off if the invention/content were made public from the beginning. The temporary nature of intellectual property rights is therefore a bargain between offering creators enough incentive to create and allowing society to benefit from the creations. This can be summarized as the utilitarian approach to intellectual property rights, and it is the approach that underlies most Western patent regimes.
With AI, creating works will get much easier. Pictures, music, videos, or text can all be created in seconds, though typically the creator will work with GenAI interactively to create the content. Effectively, GenAI is a powerful tool that increases the efficiency with which creators can create content. Given that creators now need to spend much less time/money to create their content, a smaller reward (shorter or narrower copyrights) still provides sufficient incentive for the creator to create the content and society as a whole benefits from increased access to the content.
2. Maintaining Freedom to Create will get Harder
Creators have always stood on the shoulders of giants. Their creations are not made in a void but rather tend to be a recombination of previously existing content. The ideas expressed by writers are synthesized from ideas expressed by others, songs are influenced by previous music, etc. In a world of GenAI, where the creation of content is almost free, there is a real risk that the creative space will be colonized to such an extent that future creators will find it hard to create content that is distinct enough from everything that has come before so as not to infringe on the copyrights.
This is probably best seen in the context of music. Recently, there have been a number of lawsuits claiming that a new song infringed on previous music because a certain element of the song was similar. If that is the bar (any similar element) and using GenAI millions of songs are created, it will be almost impossible for future artists to create music without infringing. If we interpret copyrights strongly it is just a matter of time before a music "patent troll" uses genAI to colonize the music space and sues future artists.
Part of the solution is to ensure that content created by genAI is not copyrightable. But what if genAI created most of the song but a creator changed the beat? It will be very hard to draw the line between genAI created and human created. Like any other tool, people will use genAI to create things and it will be a joint effort. So we must ensure that content create by genAI is not copyrightable. But we must also ensure that copyrights only protect the exact song and do not cover any song that has an element that sounds similar. In other words, copyrights should be seen narrowly (they apply to that specific work, not to similar works).
3. A strong copyrights regime could make AI developments grind to a halt
Canada is lagging in innovation, productivity, and economic growth. Fortunately, AI presents an opportunity for our country to change the trajectory. But for that, we need to foster AI.
Strong copyrights present a risk AI. The latest LLMs like GPT4 were trained on a significant fraction of all of the quality data available on the Internet. Without access to this data, they simply would not work. If the courts rule that the use of Internet data for training these models infringes on copyright the development of these models will grind to a halt (or will go underground, particularly in countries like China). Even if OpenAI wanted to pay for access to training data, there is no practical way that it could do so since ownership of the data is so diffuse. How do you negotiate with hundreds of thousands of individuals? How do you know what is and what is not copyright protected?
4. Technological neutrality in building on previous ideas
People have always been allowed to read essays and books, and recombine all of the ideas into their own book. Similarly, music artists have been allowed to listen to all the songs they want and recombine all of the musical elements into a new song. This is not dissimilar to what genAI does: it ingests lots of content and synthesizes new content.
This begs the question of why people should be allowed to do it but not machines. In my view, all should be allowed to build on previous content to create new content as long as it is not an identical copy of previous content.
Three main actionable recommendations come out of the previous discussion:
1. Content created by, or "mostly" created by, machines should not be copyrightable
2. In the age of AI, copyrights should be interpreted narrowly. They only cover the work that was created. Similar works should not be deemed to be infringing.
3. The training of AI models on existing content should not be subject to copyright as long as the AI produces new content in the end.
My apologies in advance for submitting such a brief and less than polished set of responses. I would be happy discuss any of these further. Please feel free to contact me.
BSA | The Software Alliance
Technical Evidence
Overview
First, as regards ISED’s questions about Text and Data Mining (Section 2.1), text and data mining, also referred to as computational analysis, typically involves turning data into tokens that are looking for statistical correlations with other tokenized data. Some of that data may be part of a copyrighted work, but the use normally has nothing to do with the expressive content of a work. A book may be used to learn language skills, which are then used for improved database management practices. In general, we believe that a reproduction of a lawfully accessed work for purposes of computational analysis should qualify as fair dealing under Canadian law. For greater certainty, we recommend that Canada adopt an express exception in the Canadian Copyright Act to cover copying of a lawfully accessed work for the purpose of “computational analysis.”
Relatedly, we understand that there have been voluntary, industry conversations around automated tools to indicate that the rights-owner does not want a website used for training purposes, similar to the current “do not crawl” tools. We encourage further conversations to determine whether a consensus standard is possible.
Discussion
In Section 2.1, ISED asks about how data is used to train AI systems in the context of text and data mining – also known as computational analysis. As discussed in more detail below, there are different approaches to AI training, but this is the core of each: turning bits of data into tokens and finding statistical correlations from the tokens. The bits of data may be part of a licensed data set, they may be freely available online, or they may be part of a combination of different sets.
Training data may or may not be part of a copyrighted work, since there are no formalities to copyright protection and all expressive works are protected. The training set, however, is used to enable studying of non-expressive data it contains. This enables the system to learn, for instance, how language functions or about spatial relationships. While this form of data analysis should qualify as fair dealing under Canadian law and/or should be accommodated in a statutory exemption, there may be situations in which the copyright owner or publisher wants to prevent the data use for training purposes. There are ongoing industry conversations about how to create metatags to create a signal on an otherwise freely available website, and we hope that the Government of Canada and ISED will encourage those conversations.
A. Artificial Intelligence in a Copyright Context
AI machine learning encompasses a vast array of technologies developed or deployed for use in a variety of different industries and applications. Machine learning depends upon computational analysis of training data to identify correlations, patterns, or other metadata in order to develop a model that can make predictions or recommendations based on future data inputs. More recently, generative AI has emerged, allowing for the creation of new outputs in textual, visual, or aural formats.
1. Applications of AI
We offer below a few (widely recognized) examples of insights, predictions, and other outputs derived from computational analysis in the machine learning context:
- Automated flight management and air traffic control based on computational analysis of meteorological conditions, real-time fuel consumption, aircraft operational data, nearby air traffic conditions, airport congestion, and numerous other data elements.
- Identification of chemical and cellular anomalies for early diagnosis, prevention, and treatment in the fields of oncology, autoimmune disorders, and Parkinsons and Alzheimers disease.
- By integrating generative AI into security operations, organizations can effectively identify and address security anomalies, as well as detect and mitigate potential threats.
- Predictive climate modeling based on computational analysis of satellite data, weather station data, topographical information, and various IoT and sensor data.
- Improved carbon tracking and mitigation based on computational analysis of transportation logs, meter readings, fuel purchase records, atmospheric pollution tracking, and visual monitoring of power plants and other facilities, and other data sources.
- Computational analysis to map vulnerable seaside areas to produce cyclone risk maps and guide investment plans for cyclone shelters, schools, health facilities, and other infrastructure for disaster planning and survivability.
- Predictive typing and other office productivity solutions (e.g., an “auto-complete” function that suggests the letters “…cerely yours” after the typist inputs the letters, “sin”), or the creation of sound effects or special effects to assist creators and film producers in developing new artworks.
While the use cases are diverse, the elements of training each are very similar and discussed below.
2. The AI Development Life Cycle
The AI development life cycle typically includes the following steps:
- Project Conception: Often, AI models are designed as general-purpose tools, such as a natural language processing model, that may later be customized for multiple particular tasks. Sometimes, an AI model is developed with a specific task in mind. In that situation, the AI development team must formulate the “problem” that a system is intended to address and map the structure and target variables that the system is intended to predict. For instance, a fitness app that analyzes a consumer’s heart rate to monitor for irregularities that might predict whether that person is at risk of a stroke or heart disease (i.e., the target variable).
- Raw Data Identification: Often, AI models are trained on massive amounts of unlabeled data through self-supervised learning to serve as general purpose tools, such as a natural language processing model, that may later be customized for multiple particular tasks. In other circumstances where the model is being developed for a specific task, the AI development team must identify a relevant universe of “raw data” that will subsequently be transformed and structured. Data sources are as diverse as the potential applications of machine learning AI and may include everything from machine-to-machine data (e.g., satellite transmission data) and international trade statistics to published materials, blog posts, website comments, and chat room logs. “Raw data” is frequently “messy,” requiring significant work to transform the data into a usable form, as outlined below.
- Preparing the Data Set: The AI development team must modify the “raw data” so it can be semantically read by the machine and used to train the model. During this process, the team will revise, clean, and normalize the data as necessary. Data is typically semantically and structurally transformed through “tokenization,” which involves breaking down a piece of text or data into smaller units (or “tokens”) for purposes of computational analysis. Tokenization is necessary to improve the reliability, quality, and suitability of the data for analysis, helping to address quality challenges, such as missing values, duplicates, outliers, and inconsistent formatting across the entire data set. Training data will often ultimately appear as a sequence of tokens that stretches across the entire AI corpus.
- Model definition: After input data has been suitably processed, the AI development team must establish the system’s underlying architecture. This includes identifying the variables (i.e., “features”) in the training data that the algorithm will evaluate as it looks for patterns and relationships as the basis of a rule for making future predictions. It also includes selecting the type of algorithmic model that will power the system (e.g., linear regression, logistic regression, deep neural network.) Once the data is ready and the algorithm is selected, the team will train the system to produce a functional model that can make predictions about future data inputs.
- Model Validation, Testing, and Revision. After the model has been trained, it must be validated to determine if it is operating as intended and tested to demonstrate that the system’s outputs fall within expected parameters and do not contain unexpected errors or unintended bias. Based on outcome of validation and testing, the model may need to be revised and refined to mitigate these risks.
- There have been calls to create mechanisms that restrict access to works online for any purpose, including training an AI system. It should be remembered that automated “do not crawl” tools can prevent access to works online for any purpose, including training an AI system. We support further voluntary conversations between creators and AI developers and deployers to arrive at effective, consensus technical mechanisms.
Text and Data Mining
B. The Use of Copyrighted Works to Train AI Models
As discussed above, computational analysis is typically applied to a large training data corpus that may comprise millions or billions of tokenized data elements. Depending on how the model is trained, data accessible over the Internet may be collected as part of the raw data set that is transformed into that corpus.
This raw data may include copyrighted works because a substantial portion of the internet is potentially subject to copyright protection, but importantly, however, not all of the material online is subject to copyright, in part because copyright protection does not extend to facts, ideas, or mathematical concepts.
Computational analysis may involve two sets of reproductions that potentially implicate the Canadian Copyright Act: (1) reproductions necessary to create a corpus of “training data,” and (2) temporary reproductions that are incidental to the computational process of training the AI model. In each case, the reproductions are “intermediate” in the sense that they are not visible or otherwise made available to the public. Instead, the reproductions are the necessary byproduct of a technical process that is aimed at identifying non-copyrightable information about the underlying corpus of works – i.e., the correlations and patterns that inform the creation of the AI model and enable it to make predictions based on future data inputs. Such intermediate, non-expressive reproductions do not compete with and have no impact on the economic interests that copyright is intended to protect.
Furthermore, computational analysis does not involve the consumption of any copyrighted works for their expressive content. Rather, such analysis involves mathematical calculations of probabilities, correlations, trends, and other patterns across the entire tokenized data set. Such analysis seeks to understand only the mathematical patterns (e.g., the relationships of specific tokens in relation to other tokens) distributed across the entire data set. These mathematical patterns are themselves not expressive content protected by copyright law.
1. Reproduction of a Work for Purposes of AI Computational Analysis Should Qualify as Fair Dealing under the Copyright Act
It is impossible to draw a generalized conclusion that all applications of AI involving the reproduction of copyrighted works will qualify as fair dealing. Nevertheless, in most cases, it is appropriate to treat as fair dealing the creation and use of AI training databases for the purposes of analyzing a large collection of individual works to identify patterns, correlations, and other metadata to develop an AI model that makes predictions about future data inputs.
Sections 29, 29.1 and 29.2 of the Copyright Act permits “fair dealing” as an exception to exclusive copyright. To qualify for this exception, the “dealing” in copyrighted content must be “fair” and for the purpose of research, private study, criticism, review, or news reporting. For the reasons stated below, the AI developer would ideally be able to rely on the fair dealing doctrine to construct an AI training database using materials to which he or she has lawful access.
We offer an illustrative explanation of these points below. For example, an AI developer seeking to create a natural language processing model – such as an AI-driven predictive typing model – can rely on publicly available textual material (ranging from poetry or novels to anonymous website commentary) to create the training database. In such a scenario, the AI developer would not be reproducing this text for its expressive purpose. Rather, the reproductions would be made solely for the purpose of extracting unprotected information about the English or French language – i.e., the correlations, patterns, and relationships among the 26 letters of the alphabet and the millions of English and French language words, as they appear in thousands of stock phrases, figures of speech, similes, metaphors, grammar patterns, and common linguistic formulations and expressions. Neither these letters, words, and phrases, nor the mathematical patterns among them across thousands or millions of writings, are copyright protectable subject matter.
Furthermore, the ultimate use of the computational analysis applied to the data set is often far removed from the intended use of the original content. Auto-complete functionality in predictive typing software comprises a new creation in the form of software code that is distinct both from the entire AI training corpus and from any single work within that corpus. Software code that can suggest the endings of commonly used phrases is many steps removed from any copyrighted works found in the underlying raw data. Finally, such functionality simply does not compete with any copyrighted works in any manner that copyright is intended to protect.
2. Canada Should Amend the Copyright Act to Adopt an Express Exception Covering Copying of a Lawfully Accessed Work for the Purpose of Computational Analysis
As discussed above, reproduction of a lawfully accessed work for purposes of computational analysis should qualify as fair dealing under Canadian law.
However, for greater certainty, BSA recommends that Canada adopt an express exception in the Canadian Copyright Act to cover copying of a lawfully accessed work for the purpose of “computational analysis.” Consistent with international best practice, ISED should ensure that any such exception is technologically neutral, sufficiently flexible so as to be future-proof, and agnostic as to purpose and user. With that in mind, the exception should extend to:
- Commercial and non-commercial uses;
- All works and other subject matter; all copyright-relevant acts, including retention of data for purposes of verification and validation of results; and
- The provision of AI services (i.e., permitting service providers to perform computational analysis on behalf of end-users).
Importantly, such an exception would be consistent with Canada’s international obligations. The TRIPs Agreement and Berne Convention require Member States to ensure that exceptions to copyright are confined to “certain special cases which do not conflict with the normal exploitation of the work and do not unreasonably prejudice the legitimate interests of the rights holder.”
An exception to facilitate computational analysis of lawfully accessed works is consistent with each of these requirements. It would meet the “certain special cases” requirement insofar as it is clearly and narrowly tailored to advance a significant public interest in the development of AI. It will not conflict with the normal exploitation of copyrighted works because reproductions made during a computational analysis process are not visible to humans and cannot substitute for or displace markets for the original works.
And, finally, a computational analysis exception will not prejudice the legitimate interests of a rights holder because the value derived from such processes is unrelated to the expressive content that copyright is intended to protect. Indeed, the very purpose of performing computational analysis is identify non-copyrightable information – such as the relationships and correlations between large corpuses of works – that can be used to train AI models. The value derived from such activity lies not in the factual information that is gleaned from any single source, but rather in the discovery of entirely new forms of knowledge that emerge from the identification of patterns and correlations that exist between large bodies of disparate sets of data.
3. Any Other Reproductions Will Qualify as a Temporary Reproduction for a Technological Process under Section 30.71 of the Copyright Act
In addition to the reproductions that may be needed to create an AI training database, reproductions may also be made when the training data undergoes the computational analysis that occurs during the machine learning process. The Copyright Board of Canada interpreted this Section 30.71 as “intended to capture copies that happen automatically, or without the direct control of the user”, and that are automatically deleted once the technological process is completed.
These fleeting reproductions are an inevitable byproduct of working with digital media, which must be loaded into the random access memory (RAM) of a computing device to be accessed, analyzed, manipulated or even deleted. In some circumstances, the creation of RAM copies may constitute a reproduction that is cognizable under the Canadian Copyright Act. However, the fleeting nature of the RAM copies involved in the machine learning process are unlikely to be considered “copies” that implicate the reproduction right.
4. Voluntary Measures and Consensus Solutions
There have been calls to create mechanisms that restrict access to works online for any purpose, including training an AI system. It should be remembered that automated “do not crawl” tools can prevent access to works online for any purpose, including training an AI system. We support further voluntary conversations between creators and AI developers and deployers to arrive at effective, consensus technical mechanisms.
Authorship and Ownership of Works Generated by AI
C. The Copyrightability of Material Generated by an AI System
Section 2.2 asks about copyrightability. For both policy and legal reasons, copyright protection should be available for works generated by a human using AI. As long as sufficient human skill and judgment was involved in the creation of the work, the tool used in aiding the expression should not matter.
Inquiries regarding copyrightability will turn on a close examination of the degree of human skill and judgment. Artificial intelligence is increasingly being used as a tool in all categories of creative works. A decision to limit copyrightability when AI is used would significantly chill adoption of AI solutions. In turn, this would limit creative expression and impact Canadian AI development.
Works that emerge as outputs of AI systems and meet the human skill and judgment requirement should continue to be eligible for copyright protection. In most cases, AI systems will function as tools used by human authors to execute upon their creative vision. For instance, photographers will use AI-enabled tools to automate the tedious process of editing their images, architects will use AI to augment their designs to enhance their energy efficiency, and filmmakers will use AI to ensure that the movement of their animated characters appear more life-like. In each of these cases, the creative contribution and exercise of skill and judgment by the human user makes it easy to conclude that the output would be copyrightable.
The use of generative AI should not change the analysis. Certainly, there will be cases at either extreme, in which it is either clear that there was a lack of or trivial amount of human involvement or, on the other hand, generative AI was not part of the creative expression. We encourage ISED, in the first instance, to take a broad view of copyrightability. The Canadian Copyright Act provides courts with sufficient flexibility to closely examine these considerations when needed.
Infringement and Liability regarding AI
D. Potential Liability for Infringing Works Generated Using AI Systems
Section 2.3 relates to potentially infringing works generated using AI systems. BSA offers the following observations.
1. Current Copyright Law Protects Copyright Holders from Infringement, Including in Cases Arising from AI Generated Content
Copyright holders should have full and effective remedies when their rights are infringed. This principle applies equally to outputs generated using AI systems and outputs generated in other ways. Whenever such infringement is found, it is critical to fully compensate artists and creators for any damages caused.
In our view, existing copyright law should prove adequate to address questions of infringement. In most AI use cases, such as those described above, the output of an AI system will not implicate copyright at all. However, AI, like other technologies, could be used to create infringing material. Generally speaking, in those situations, infringement liability would be premised upon an assessment of the degree of similarity with the copyrighted work. Many users of generative AI will be small businesses experimenting with new tools, and enforcement decisions should take account of this. Liability would also arise in other appropriate cases, such as those involving derivative works.
Plaintiffs may also seek to bring infringement actions against providers of AI-related services. Here too, existing copyright doctrines should prove adequate in evaluating and apportioning liability. If a plaintiff demonstrates that a direct infringement has occurred, courts will evaluate whether the service provider should be deemed contributorily and/or vicariously liable for its users’ conduct. In the context of contributory liability claims, the staple article of commerce doctrine will ensure that providers of AI services with substantial non-infringing uses are not liable for their users’ infringing activity unless there is evidence that the service was made available with the object of promoting its use to infringe copyright.
2. AI Models Trained on Sufficiently Large Data Sets Are Less likely to Produce Infringing Outputs
While it is important not to conflate training data with the output of an AI system, it is worth noting that the more data available for training, the less likely the system will produce a copy or derivative of an input (in the absence of a user’s intent to infringe). In any well-designed AI model trained on a sufficiently large data set, computational analysis should never (or only in the rarest of circumstances) produce outputs that are “substantially similar,” let alone “virtually identical,” to any specific copyrighted work. As Professor Matthew Sag of Emory University has explained,
At the moment, memorization [i.e., the accidental replication of a particular work from a training set] is an edge case. For the most part, the link between the training data and the output of generative AI is attenuated by a process of decomposition, abstraction, and remix. Generally, pseudo-expression generated by large language models does not infringe copyright because these models “learn” latent features and associations within the training data, they do not memorize snippets of original expression from individual works.
Additionally, some AI developers and deployers are already taking steps to engage with artists and creators on how to support their work in a changing digital environment and taking steps to limit misuse of an AI system, such as limiting what prompts can be used.
Comments and Suggestions
BSA thanks the ISED for the opportunity to provide comments in response to the ISED’s consultation. As discussed above, the non-consumptive computational analysis of copyrightable content in AI training data sets should not be treated as an infringement of copyright under Canadian law. While we believe that the computational analysis of copyrightable content in AI training data sets is not a copyright infringement under Canadian law, to the extent that Canadian law is unsettled in this regard, we urge the development of a specific statutory exemption to the use of copyrighted material within AI training sets. At the same time, BSA also supports multi-stakeholder efforts relating to AI training processes as well as efforts to minimize the risk of infringement. And to the extent that infringement occurs, BSA strongly supports fully protecting content creators.